Rufen Sie uns an: 0391 597 65 65 1

Die Funktionsweise von Suchmaschinen

suchmaschinenSuchmaschinen sind ein essentieller Bestandteil der Internetnutzung geworden. Milliarden von Webseiten tummeln sich auf Millionen von Webservern und bieten uns Informationen. Wir benutzen Suchmaschinen inzwischen täglich, ohne groß darüber nachzudenken. Sie sind einfach zu bedienen und sorgen für die nötige Orientierung im World Wide Web.

Durch den riesigen Erfolg von Google steht keine andere Firma für den Begriff Suchmaschine, wie die Kalifornier. Doch wie eine Suchmaschine exakt funktioniert, weiß nur ein Bruchteil der Benutzer. Deswegen möchten wir Ihnen die Funktionsweise von Suchmaschinen erläutern und wichtige Begrifflichkeiten klären.

Die unterschiedlichen Arten einer Suchmaschine

Wer sich mit der Thematik der Suchmaschinen auseinandersetzen möchte, wird schnell auf die zwei unterschiedlichen Arten treffen: die Meta-Suchmaschinen und Volltext-Suchmaschinen.

  1. Meta-Suchmaschinen sammeln nicht selbst Ergebnisse, sondern leiten die Suchanfragen an mehrere andere weiter. Diese Ergebnisse werden von der Meta-Suchmaschine abgegriffen und in einer eigenen Trefferliste verarbeitet (SERPs). Zu den bekanntesten Anbietern gehören Ixquick, Metager oder Yippy.
  2. Zu den Volltext-Suchmaschinen zählen Bing, Yahoo und vor allem Google. Sie durchsuchen und indizieren den gesamten Text einer Website und verweisen auf alle relevanten Begriffe bzw. Wortgruppen. Diese Aufgabe übernimmt der sogenannte Crawler (engl.: to crawl: „kriechen“ oder „krabbeln“).

Die Arbeitsweise einer Suchmaschine

Bei Verwendung einer Suchmaschine wird nicht das komplette Internet durchsucht, sondern ausschließlich das World Wide Web. Die Durchführung einer Suche ist allerdings komplizierter, als es für den Endnutzer letztendlich erscheint. Simpel formuliert: die Suchmaschine durchsucht das Web nach Informationen, indiziert diese und stellt sie für den Endnutzer bereit. Egal ob Bing, Yahoo oder Google, jede Suchmaschine arbeitet beim Suchprozess mit einem eigenen Algorithmus.

Die drei zentralen Elemente ähneln sich allerdings:

  • Crawler
  • Indexer
  • Searcher

Der Crawler: Auf der Suche nach Inhalten

Der Crawler (auch Spider oder Bot) durchsucht das Internet nach Inhalten, analysiert ihre Verbindungen und folgt Links auf bereits indexierte Seiten. Letzteres wird als sogenanntes „Harvesting“ bezeichnet. Primär sind HTML-Seiten das Ziel eines Crawlers, wobei auch .ppt oder .pdf-Dateien erfasst werden können. Zudem analysiert er die Meta-Tags der Website. Nachdem eine Internetpräsenz gecrawlt wurde, speichert er die erfassten Informationen auf einem Server ab. Bereits vorhandene Websites werden in unterschiedlichen Abständen besucht, um so mögliche Veränderungen zu registrieren. Dieser vollautomatisierte Prozess verläuft komplett im Hintergrund. Der normale Endnutzer registriert diesen Arbeitsvorgang nicht.

Wie oft ein Crawler die Homepage tatsächlich besucht, ist hingegen von unterschiedlichen Faktoren abhängig:

  1. Eine hohe Anzahl an Backlinks (Mehr zum Linkbuilding)
  2. Übersichtliche interne Verlinkung
  3. Häufige Aktualisierung der Website

Je weniger Zeit zwischen den Crawler-Abfragen liegt, desto aktueller arbeitet eine Suchmaschine. Wichtige Voraussetzung für das crawlen einer Internetpräsenz ist, dass die Homepage öffentlich ist. Mittels robots.txt kann ein Crawler von der eigenen Seite ausgeschlossen werden. Mehr dazu erfahren Sie in unserem Beitrag zum Thema SEO

Merkmale des Crawlers:

  • Crawler nehmen nur eine bestimmte Anzahl an Seiten einer Domain in die Datenbank auf
  • Domains mit einer hohen Popularität (z. B. hoher PageRank) werden gründlicher erfasst
  • Die Anzahl der Linkebenen die ein Crawler in einer Site hinuntersteigt, unterscheidet sich von Suchmaschine zu Suchmaschine
  • Die Zyklen einer Domain-Aktualisierung durch den Crawler variieren. Wenn die Präsenz häufig aktualisiert wird, besucht der Crawler sie auch regelmäßiger.
  • Circa 7% des gesamten Netzverkehrs wird inzwischen durch Robots verursacht

Der Indexer: Auswertung der Daten

Der Indexer verarbeitet die vom Crawler gefundenen Daten und strukturiert den Prozess. Ein Bot ordnet die gecrawlten Seiten in ein Verzeichnis, überschreibt ggf. alte Daten und indexiert die Inhalte, damit sie fortan schnell und einfach zu durchsuchen sind. In einem Rechenprozess wertet das System die gesammelten Daten aus, um eine Relevanz der Homepage zu einem Schlüsselwort festzulegen. Wenn ein Nutzer anschließend eine Suchanfrage startet, greift die Suchmaschine auf das Verzeichnis zurück und analysiert, auf welcher Website der Suchbegriff vorhanden ist. Somit muss bei der Suchanfrage nicht mehr das gesamte World Wide Web durchforstet werden, sondern ausschließlich der angelegte Index. Die Gewichtung erfolgt durch das sogenannte IR-System (Information Retrieval).

Anschließend werden aus dem Repository (deutsch: Zwischenspeicher, Lager) passende Informationen geladen. Dazu gehören unter anderem der Seitentitel und die Seitenbeschreibung. Daraufhin werden die Ergebnisse in den sogenannten SERPs dargestellt. Unter SERP (Search Engine Result Pages) wird die Ergebnisseite verstanden, welche der Nutzer nach der Suchanfrage angezeigt bekommt.

Das Ranking: Jeder will ganz oben stehen

Das Suchmaschinen Ranking ist für Webseiten-Betreiber ein zentrales Element. Eine bessere Platzierung bedeutet auch mehr Besucher auf der Homepage, eine größere Reichweite und im Zweifelsfall auch mehr potentielle Kunden für Unternehmen.Deshalb ist die Suchmaschinenoptimierung  (kurz SEO) mittlerweile auch ein zentraler Bestandteil des Online Marketings von Unternehmen.

Welches Ergebnis an erster Stelle in den SERPs steht, hängt stark von der jeweiligen Suchmaschine ab. Jeder Betreiber nutzt andere Mechanismen und Algorithmen. Sie sorgen dafür, dass für den Nutzer die Treffer angezeigt werden, welche die Suchanfrage am besten beantworten. Die Faktoren von Google & Co. setzen sich aus über zweihundert Komponenten zusammen, die darüber entscheiden, welche Suchmaschinen Platzierung Ihre Homepage in den Ergebnissen erreicht. Der Bereich der Suchmaschinenwerbung ist davon ausgeschlossen, da hier andere Faktoren gelten.

Zentrale Bestandteile des Ranking-Systems sind unter anderem:

  • Die Inhalte der Webseite du deren Semantik
  • Vorhandene Verlinkungen, sowohl extern als auch intern
  • Aktualität
  • Informationsarchitektur der Seite
  • Einwandfreie technische Funktion

Google und die 3-Schritt-Methode

Crawlen, Indexierung und Ranking – Diese drei Schritte gehören zur grundlegenden Funktionsweise von Google und anderen Suchmaschinen. Übersetzt bedeutet dieser Prozess nichts anderes als:

  1. Datensammlung
  2. Datenanalyse
  3. Datenausgabe

Dieser sehr komplexe Vorgang basiert auf einem riesigen Rechenprozess. Die Ergebnisse der Suchanfragen erhält der Nutzer allerdings in wenigen Sekunden. Google hilft dem Nutzer durch seine Suchmaschine im Internet die besten Antworten auf seine Fragen zu finden. Dies muss nicht automatisch bedeuten, dass das Ergebnis an erster Position auch die relevanteste Homepage für den Endnutzer ist. Wenn Webseitenbetreiber hingegen versuchen die Suchmaschinen Positionierung zu manipulieren( z.B. durch Spam), erkennt die Google Technik diese Vorhaben recht schnell und bestraft die Homepage mit strikter Nicht-Beachtung.

Sie haben noch Fragen? Besuchen Sie uns zu einem kostenlosen Beratungstermin in Magdeburg

  • Dieses Feld dient zur Validierung und sollte nicht verändert werden.
Hinterlassen Sie einen Kommentar

Lesenswert

Kontakt

Semotion

Schleinufer 18a
39104 Magdeburg,
Sachsen-Anhalt

 

E-Mail: mail@semotion.de
Telefon: 0391-59765651
Fax: 0391-59765652

 

Impressum
Datenschutzerklärung
Semotion SEO Blog
Ihre SEO-Agentur aus Magdeburg

Kanzleimarketing

5 Gründe für Semotion

  • mehr als 10 Jahre Erfahrung
  • Kompetenz und Leidenschaft kombiniert
  • Persönliche Ansprechpartner
  • SEO Strategisch und Nachhaltig
  • Entsprechend der Google Richtlinien