Die Funktionsweise von Suchmaschinen

Suchmaschinen sind ein essentieller Bestandteil der Internetnutzung geworden. Milliarden von Webseiten tummeln sich auf Millionen von Webservern und bieten uns Informationen. Wir benutzen Suchmaschinen inzwischen täglich, ohne groß darüber nachzudenken. Sie sind einfach zu bedienen und sorgen für die nötige Orientierung im World Wide Web. Durch den riesigen Erfolg von Google steht keine andere Firma für den Begriff Suchmaschine, wie die Kalifornier. Doch wie eine Suchmaschine exakt funktioniert, weiß nur ein Bruchteil der Benutzer. Deswegen möchten wir Ihnen die Funktionsweise von Suchmaschinen erläutern und wichtige Begrifflichkeiten klären.

Die Arten von Suchmaschinen

Wer sich mit der Thematik der Suchmaschinen auseinandersetzen möchte, wird schnell auf die zwei unterschiedlichen Arten treffen: die Meta-Suchmaschinen und Volltext-Suchmaschinen.

Volltext-Suchmaschinen

Zu den Volltext-Suchmaschinen zählen Bing, Yahoo und vor allem Google. Sie durchsuchen und indizieren den gesamten Text einer Website und verweisen auf alle relevanten Begriffe bzw. Wortgruppen. Diese Aufgabe übernimmt der sogenannte Crawler (engl.: to crawl: „kriechen“ oder „krabbeln“).

Meta-Suchmaschinen

Meta-Suchmaschinen sammeln nicht selbst Ergebnisse, sondern leiten die Suchanfragen an mehrere andere weiter. Diese Ergebnisse werden von der Meta-Suchmaschine abgegriffen und in einer eigenen Trefferliste verarbeitet (SERPs). Zu den bekanntesten Anbietern gehören Ixquick, Metager oder Yippy.

Die Arbeitsweise einer Suchmaschine

Bei Verwendung einer Suchmaschine wird nicht das komplette Internet durchsucht, sondern ausschließlich das World Wide Web. Die Durchführung einer Suche ist allerdings komplizierter, als es für den Endnutzer letztendlich erscheint. Simpel formuliert: die Suchmaschine durchsucht das Web nach Informationen, indiziert diese und stellt sie für den Endnutzer bereit. Egal ob Bing, Yahoo oder Google, jede Suchmaschine arbeitet beim Suchprozess mit einem eigenen Algorithmus.

Der Crawler

Der Crawler (auch Spider oder Bot) durchsucht das Internet nach Inhalten, analysiert ihre Verbindungen und folgt Links auf bereits indexierte Seiten. Letzteres wird als sogenanntes „Harvesting“ bezeichnet. Primär sind HTML-Seiten das Ziel eines Crawlers, wobei auch .ppt oder .pdf-Dateien erfasst werden können. Zudem analysiert er die Meta-Tags der Website. Nachdem eine Internetpräsenz gecrawlt wurde, speichert er die erfassten Informationen auf einem Server ab. Bereits vorhandene Websites werden in unterschiedlichen Abständen besucht, um so mögliche Veränderungen zu registrieren. Dieser vollautomatisierte Prozess verläuft komplett im Hintergrund. Der normale Endnutzer registriert diesen Arbeitsvorgang nicht.
Wie oft ein Crawler die Homepage tatsächlich besucht, ist hingegen von unterschiedlichen Faktoren abhängig:
  1. Eine hohe Anzahl an Backlinks
  2. Übersichtliche interne Verlinkung
  3. Häufige Aktualisierung der Website
Je weniger Zeit zwischen den Crawler-Abfragen liegt, desto aktueller arbeitet eine Suchmaschine. Wichtige Voraussetzung für das crawlen einer Internetpräsenz ist, dass die Homepage öffentlich ist. Mittels robots.txt kann ein Crawler von der eigenen Seite ausgeschlossen werden. Mehr dazu erfahren Sie auf unserer Seite zum Thema SEO.
Merkmale des Crawlers:
  • Crawler nehmen nur eine bestimmte Anzahl an Seiten einer Domain in die Datenbank auf
  • Domains mit einer hohen Popularität (z. B. hoher PageRank) werden gründlicher erfasst
  • Die Anzahl der Linkebenen die ein Crawler in einer Site hinuntersteigt, unterscheidet sich von Suchmaschine zu Suchmaschine
  • Die Zyklen einer Domain-Aktualisierung durch den Crawler variieren. Wenn die Präsenz häufig aktualisiert wird, besucht der Crawler sie auch regelmäßiger.
  • Circa 7% des gesamten Netzverkehrs wird inzwischen durch Robots verursacht

Der Indexer

Der Indexer verarbeitet die vom Crawler gefundenen Daten und strukturiert den Prozess. Ein Bot ordnet die gecrawlten Seiten in ein Verzeichnis, überschreibt ggf. alte Daten und indexiert die Inhalte, damit sie fortan schnell und einfach zu durchsuchen sind. In einem Rechenprozess wertet das System die gesammelten Daten aus, um eine Relevanz der Homepage zu einem Schlüsselwort festzulegen. Wenn ein Nutzer anschließend eine Suchanfrage startet, greift die Suchmaschine auf das Verzeichnis zurück und analysiert, auf welcher Website der Suchbegriff vorhanden ist. Somit muss bei der Suchanfrage nicht mehr das gesamte World Wide Web durchforstet werden, sondern ausschließlich der angelegte Index. Die Gewichtung erfolgt durch das sogenannte IR-System (Information Retrieval).

Anschließend werden aus dem Repository (deutsch: Zwischenspeicher, Lager) passende Informationen geladen. Dazu gehören unter anderem der Seitentitel und die Seitenbeschreibung. Daraufhin werden die Ergebnisse in den sogenannten SERPs dargestellt. Unter SERP (Search Engine Result Pages) wird die Ergebnisseite verstanden, welche der Nutzer nach der Suchanfrage angezeigt bekommt.

Das Ranking

Das Suchmaschinen Ranking ist für Webseiten-Betreiber ein zentrales Element. Eine bessere Platzierung bedeutet auch mehr Besucher auf der Homepage, eine größere Reichweite und im Zweifelsfall auch mehr potentielle Kunden für Unternehmen.Deshalb ist die Suchmaschinenoptimierung (kurz SEO) mittlerweile auch ein zentraler Bestandteil des Online Marketings von Unternehmen.
Welches Ergebnis an erster Stelle in den SERPs steht, hängt stark von der jeweiligen Suchmaschine ab. Jeder Betreiber nutzt andere Mechanismen und Algorithmen. Sie sorgen dafür, dass für den Nutzer die Treffer angezeigt werden, welche die Suchanfrage am besten beantworten. Die Faktoren von Google & Co. setzen sich aus über zweihundert Komponenten zusammen, die darüber entscheiden, welche Suchmaschinen Platzierung Ihre Homepage in den Ergebnissen erreicht. Der Bereich der Suchmaschinenwerbung ist davon ausgeschlossen, da hier andere Faktoren gelten.
Zentrale Bestandteile des Ranking-Systems sind unter anderem:
  • Die Inhalte der Webseite du deren Semantik
  • Vorhandene Verlinkungen, sowohl extern als auch intern
  • Aktualität
  • Informationsarchitektur der Seite
  • Einwandfreie technische Funktion

Google und die 3-Schritt-Methode

Crawlen, Indexierung und Ranking – Diese drei Schritte gehören zur grundlegenden Funktionsweise von Google und anderen Suchmaschinen. Übersetzt bedeutet dieser Prozess nichts anderes als:
  1. Datensammlung
  2. Datenanalyse
  3. Datenausgabe

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Dieser sehr komplexe Vorgang basiert auf einem riesigen Rechenprozess. Die Ergebnisse der Suchanfragen erhält der Nutzer allerdings in wenigen Sekunden. Google hilft dem Nutzer durch seine Suchmaschine im Internet die besten Antworten auf seine Fragen zu finden. Dies muss nicht automatisch bedeuten, dass das Ergebnis an erster Position auch die relevanteste Homepage für den Endnutzer ist. Wenn Webseitenbetreiber hingegen versuchen die Suchmaschinen Positionierung zu manipulieren (z.B. durch Spam), erkennt die Google Technik diese Vorhaben recht schnell und bestraft die Homepage mit strikter Nicht-Beachtung.

Warum ist Semotion die richtige SEO-Agentur für Sie?

Professionelles SEO seit 2008
Individuelle, kundenspezifische Lösungen
Keine Knebelverträge oder feste Laufzeiten
Strategisch und auf Nachhaltigkeit angelegt
Persönliche Beratung von Experten

Möchten Sie besser gefunden werden?

Warten Sie nicht länger. Kontaktieren Sie uns jetzt. Wir verhelfen Ihnen garantiert zu mehr Sichtbarkeit. Nehmen Sie jetzt Kontakt zu uns auf und gewinnen Sie schon in Kürze neue Kunden.