In diesem Artikel zeige ich, wie man relativ einfach eine Seite regelmäßig mit Azure WebJobs & Node.js (jQuery bzw. cheerio) crawlen und die Daten als JSON ausgeben kann.

Im konkreten Beispiel geht es darum, wöchentlich aus dem Windows Store die aktuellen „Red Stripe Deals“-Angebote auszulesen und die Informationen als JSON-Datei auf dem Server abzulegen, wo diese z.B. von einer App weiterverwendet werden können.

Verantwortungsbewusst Crawlen & Scrapen

Ich möchte an dieser Stelle keine große Ethik-Diskussion über das scrapen von Daten vom Zaun brechen. Dazu gibt es im Web schon mehr als genug Diskussionen und Meinungen. Allerdings möchte ich anmerken, dass man selbst nur davon profitiert, wenn man nicht rücksichtslos vorgeht. Gerade wenn mehrere, unter Umständen tausende Seiten aufgerufen werden sollen, ist es durchaus im eigenen Interesse, den Server nicht mit zu vielen gleichzeitigen Requests in die Knie zu zwingen. Zudem möchte man den Seitenbetreiber ja nicht dazu ermuntern, Gegenmaßnahmen zu ergreifen.

Aus diesem Grund verwenden wir Tools wie Async.js und die in Node.js enthaltene Library zlib, um möglichst ressourcenschonend an die Daten zu kommen.

Verwendete Tools

Vorbereitung

Zunächst benötigen wir eine neue Web App, unter der wir den WebJob ausführen können. Hierfür reicht erst mal auch die kostenlose F1 Free-Instanz des App Service Plans.

azure new web app

Projekt anlegen

Um ein neues Projekt anzulegen erstellen wir einen neuen Ordner, welcher am Ende alle benötigten Files enthalten wird und den wir dann einfach als .zip auf Azure hochladen können.

In dem noch leeren Ordner öffnen wir die cmd (im Ordner Shift + Rechtsklick -> Eingabeaufforderung hier öffnen) und beginnen damit, die benötigten Node.js-Pakete herunterzuladen.

request ist ein HTTP request client, über den wir die benötigten Seitenaufrufe ausführen können.

cheerio ist quasi eine für Node.js abgespeckte Variante von jQuery, die es ermöglicht, Informationen mit gewohnt simplen Selektoren aus dem DOM-Baum zu extrahieren.

async ermöglicht es uns, Warteschlangen für unseren Crawler anzulegen und so die HTTP-Anfragen zu drosseln.

Neben diesen externen Paketen benötigen wir noch zwei bereits in Node.js enthaltene Module:

Mit zlib können wir die Webseiten gzip-komprimiert aufrufen und entpacken, was uns vor allem Traffic und Zeit spart.
Mit fs greifen wir am Ende auf das Dateisystem zu und speichern unsere Daten als .json-Dokument.

In unserem Stammverzeichnis legen wir nun eine leere app.js Datei an, in der wir all diese Module laden:

Anschließend brauchen wir noch ein paar Konfigurations-Variablen sowie ein output-Array, in welches wir die erhaltenen Apps pushen.

dealsUri ist die Einstiegsseite, über die wir die Links zu den Apps erhalten.
baseUri benötigen wir, um aus den relativen Links absolute URLs bauen zu können.
Über outputFilename geben wir an, wo unsere Deals am Ende gespeichert werden. Für den lokalen Test soll die Datei einfach im Stammverzeichnis abgelegt werden. In Azure wird das Script allerdings in einem temporären Verzeichnis ausgeführt, so dass hierfür ein absoluter Pfad angegeben werden sollte.

Der Crawler

Das Script soll folgendermaßen vorgehen:

  1. Die Red-Stripe-Deals-Seite in gzip-Form mit den Links zu allen Apps herunterladen
  2. Die Links mit cheerio (jQuery) extrahieren und in die Warteschlange / Queue qDetails einfügen
  3. Die Warteschlange einzeln abfragen und die App-Details-Seiten entpackt and den Parser weitergeben.
    Hier lässt sich über den letzten Parameter von async.queue() die Anzahl der parallel laufenden Tasks anpassen (in diesem Fall 1).
  4. App-Details mit cheerio extrahieren und in das output-Array schreiben
    Am Ende nicht den callback() für die async-Queue vergessen.
  5. Wenn die Warteschlange leer ist, das output-Array als JSON-Dokument auf der Festplatte ablegen
  6. Script starten

Das gesamte Script findet ihr hier nochmal als Github Gist.

Das Script lässt sich über die Kommandozeile mit folgenden Befehl ausführen:

Script veröffentlichen und Zeitplan einrichten

Sofern das Script lokal fehlerfrei durchläuft, kommentieren wir den output-Pfad für Azure ein (und den lokalen aus) und packen den ganzen Ordner anschließend als normale .zip-Datei.

Um einen WebJob „gemäß einem Zeitplan“ ausführen zu können, müssen wir uns jetzt im alten Azure Portal anmelden. Dort können wir nun in der zuvor angelegten Web App unter Webaufträge einen neuen WebJob hinzufügen. Hierzu wird lediglich ein Name und die .zip-Datei benötigt. Außerdem wird die Region abgefragt, in welcher der Job ausgeführt werden soll.

webjobs-schedule-medienstudio.net.

Im zweiten Schritt lässt sich dann planen, wann genau das Script ausgeführt werden soll. Nachdem sich in unserem Fall die Red Stripe Deals nur einmal die Woche ändern, muss der WebJob auch nicht öfters laufen.

webjobs-schedule-2-medienstudio.net

Sobald der Job eingerichtet wurde, können wir das Script zum ersten Mal ausführen. Wenn wir alles richtig gemacht haben, sollten wir nach kurzer Wartezeit ein „Success“ unter „Ergebnis der letzten Ausführung“ sehen.

WebJob Script nachträglich anpassen

Wenn wir nachträglich noch Änderungen am WebJobs Script vornehmen wollen, ist die vermutlich einfachste Variante, dies direkt via Webmatrix auf dem Server zu tun – natürlich NIE bei produktiven Systemen! 😉 Meldet man sich im Editor mit seinem Microsoft Account an, lässt sich die Web-App samt WebJobs direkt remote öffnen und editieren.

webmatrix-webjobs-medienstudio.net

JSON abrufen

Zu guter Letzt möchte man natürlich auch noch die erstellte JSON-Datei mit all den Deals in irgendeiner Weise (z.B. in einer mobilen App) weiterverarbeiten. Hier gibt es allerdings einen kleinen Stolperstein, vor dem man gewarnt sein sollte. Denn von Haus aus liefern Azure Web-Anwendungen kein statischen JSON-Dateien aus. Dies ist allerdings leicht behoben, indem man folgenden Code innerhalb der Web.config im Root-Verzeichnis ablegt:

via Microsoft Developer

Es mag auf den ersten Blick etwas viel Aufwand sein, letztendlich ist das Ganze allerdings gar nicht so tragisch. Fragen und Anmerkungen zur Anleitung und zum Code gern in den Kommentaren. 😉

 [/fusion_builder_column][/fusion_builder_row][/fusion_builder_container]