Den Scraper sollte man nicht mit der Maschine dem Schürfzug verwechseln. Scraper sammeln in der Regel automatisiert Daten beispielsweise von Webseiten. Man bezeichnet sie auch als Webscraper oder Datascraper. Beim Web Scraping spricht man auch vom Screen Scraping. Hierbei wird der angezeigte Inhalt eines Computerbildschirms ausgelesen. In der Regel handelt es sich hierbei um den Inhalt einer Internetseite. Hierdurch werden gezielt Informationen gesammelt. Das können beispielsweise Adressen und Kontaktdaten oder auch Preise im E-CommerceE Commerce ist kurz für electronic commerce, was übersetzt elektronischer Handel heißt. Dabei geht es also um den Verkauf von Waren und Dienstleistungen über das Internet. sein.
Es gibt diverse Add-ons für den BrowserBrowser, oder auch Webbrowser, sind Programme, die uns Webseiten und Webinhalte zeigen und durchsuchen lassen. Das Englische "to browse" heißt nicht viel mehr als "durchstöbern" und genau das tut ein Webbrowser für uns. Gleichzeitig übersetzt er Programmiersprachen wie HTML in für uns lesbare S und Programme, welche einem die Konfiguration des Scrapers auch ohne Programmierkenntnisse ermöglichen. Wer Programmierkenntnisse besitzt, kann auch beispielsweise mit JavaScriptJavaScript (JS) ist eine Programmiersprache, welche es ermöglicht, Webseiten dynamisch zu machen. Die Skriptsprache wurde 1995 entwickelt, um die Möglichkeiten von HTML und CSS zu erweitern. Dafür wird sie auch heute noch genutzt, doch kann sie inzwischen viel mehr. Während sie anfangs lediglich seinen eigenen Scraper bauen. Viele Webseiten haben einen integrierten Schutz, welcher das Sammeln von Informationen verhindert. Hierbei gibt es diverse Wege diesen Schutz zu umgehen, wie beispielsweise Pausen als Zeitintervalle zu integrieren oder das menschliche Verhalten zu imitieren. Welches Scraping erlaubt ist, kann ein Rechtsanwalt in einer Rechtsberatung klären.
Im Grunde ist der CrawlerEin Crawler ist ein automatisiertes Computerprogramm, welches Webseiten und deren Informationen durchsucht. Suchmaschinen-Anbieter verwenden Crawler um aus den Informationen von Milliarden an Webseiten einen Index aufzubauen. Aus diesem Index werden dann die Suchergebnisse gespeist. Mehr Information einer Suchmaschine nichts anderes als ein Web Scraper. Nur mit dem Unterschied, dass hier zumindest durch die großen und seriösen Suchmaschinen in der Regel das Scraping erwünscht ist.
0 Kommentare