Die Funktionsweise von Suchmaschinen
Suchmaschinen sind ein essentieller Bestandteil der Internetnutzung geworden. Milliarden von Webseiten tummeln sich auf Millionen von Webservern und bieten uns Informationen. Wir benutzen Suchmaschinen inzwischen täglich, ohne groß darüber nachzudenken. Sie sind einfach zu bedienen und sorgen für die nötige Orientierung im World Wide Web. Durch den riesigen Erfolg von Google steht keine andere Firma für den Begriff Suchmaschine, wie die Kalifornier. Doch wie eine Suchmaschine exakt funktioniert, weiß nur ein Bruchteil der Benutzer. Deswegen möchten wir Ihnen die Funktionsweise von Suchmaschinen erläutern und wichtige Begrifflichkeiten klären.
Die Arten von Suchmaschinen
Wer sich mit der Thematik der Suchmaschinen auseinandersetzen möchte, wird schnell auf die zwei unterschiedlichen Arten treffen: die Meta-Suchmaschinen und Volltext-Suchmaschinen.
Volltext-Suchmaschinen
Zu den Volltext-Suchmaschinen zählen Bing, Yahoo und vor allem Google. Sie durchsuchen und indizieren den gesamten Text einer Website und verweisen auf alle relevanten Begriffe bzw. Wortgruppen. Diese Aufgabe übernimmt der sogenannte Crawler (engl.: to crawl: „kriechen“ oder „krabbeln“).
Meta-Suchmaschinen
Meta-Suchmaschinen sammeln nicht selbst Ergebnisse, sondern leiten die Suchanfragen an mehrere andere weiter. Diese Ergebnisse werden von der Meta-Suchmaschine abgegriffen und in einer eigenen Trefferliste verarbeitet (SERPs). Zu den bekanntesten Anbietern gehören Ixquick, Metager oder Yippy.
Die Arbeitsweise einer Suchmaschine
Bei Verwendung einer Suchmaschine wird nicht das komplette Internet durchsucht, sondern ausschließlich das World Wide Web. Die Durchführung einer Suche ist allerdings komplizierter, als es für den Endnutzer letztendlich erscheint. Simpel formuliert: die Suchmaschine durchsucht das Web nach Informationen, indiziert diese und stellt sie für den Endnutzer bereit. Egal ob Bing, Yahoo oder Google, jede Suchmaschine arbeitet beim Suchprozess mit einem eigenen Algorithmus.
Der Crawler
- Eine hohe Anzahl an Backlinks
- Übersichtliche interne Verlinkung
- Häufige Aktualisierung der Website
- Crawler nehmen nur eine bestimmte Anzahl an Seiten einer Domain in die Datenbank auf
- Domains mit einer hohen Popularität (z. B. hoher PageRank) werden gründlicher erfasst
- Die Anzahl der Linkebenen die ein Crawler in einer Site hinuntersteigt, unterscheidet sich von Suchmaschine zu Suchmaschine
- Die Zyklen einer Domain-Aktualisierung durch den Crawler variieren. Wenn die Präsenz häufig aktualisiert wird, besucht der Crawler sie auch regelmäßiger.
- Circa 7% des gesamten Netzverkehrs wird inzwischen durch Robots verursacht
Der Indexer
Der Indexer verarbeitet die vom Crawler gefundenen Daten und strukturiert den Prozess. Ein Bot ordnet die gecrawlten Seiten in ein Verzeichnis, überschreibt ggf. alte Daten und indexiert die Inhalte, damit sie fortan schnell und einfach zu durchsuchen sind. In einem Rechenprozess wertet das System die gesammelten Daten aus, um eine Relevanz der Homepage zu einem Schlüsselwort festzulegen. Wenn ein Nutzer anschließend eine Suchanfrage startet, greift die Suchmaschine auf das Verzeichnis zurück und analysiert, auf welcher Website der Suchbegriff vorhanden ist. Somit muss bei der Suchanfrage nicht mehr das gesamte World Wide Web durchforstet werden, sondern ausschließlich der angelegte Index. Die Gewichtung erfolgt durch das sogenannte IR-System (Information Retrieval).
Anschließend werden aus dem Repository (deutsch: Zwischenspeicher, Lager) passende Informationen geladen. Dazu gehören unter anderem der Seitentitel und die Seitenbeschreibung. Daraufhin werden die Ergebnisse in den sogenannten SERPs dargestellt. Unter SERP (Search Engine Result Pages) wird die Ergebnisseite verstanden, welche der Nutzer nach der Suchanfrage angezeigt bekommt.
Das Ranking
-
Die Inhalte der Webseite du deren Semantik
-
Vorhandene Verlinkungen, sowohl extern als auch intern
-
Aktualität
-
Informationsarchitektur der Seite
-
Einwandfreie technische Funktion
Google und die 3-Schritt-Methode
- Datensammlung
- Datenanalyse
- Datenausgabe
Dieser sehr komplexe Vorgang basiert auf einem riesigen Rechenprozess. Die Ergebnisse der Suchanfragen erhält der Nutzer allerdings in wenigen Sekunden. Google hilft dem Nutzer durch seine Suchmaschine im Internet die besten Antworten auf seine Fragen zu finden. Dies muss nicht automatisch bedeuten, dass das Ergebnis an erster Position auch die relevanteste Homepage für den Endnutzer ist. Wenn Webseitenbetreiber hingegen versuchen die Suchmaschinen Positionierung zu manipulieren (z.B. durch Spam), erkennt die Google Technik diese Vorhaben recht schnell und bestraft die Homepage mit strikter Nicht-Beachtung.