Seite wählen

Geschichte der Suchmaschinenoptimierung (Auszug Wikipedia)

Webmaster begannen Mitte der 1990er Jahre damit, Webseiten für Suchmaschinen zu optimieren, als die ersten Suchmaschinen damit anfingen, das frühe Web zu katalogisieren. In den Anfängen reichte es aus, die URL der entsprechenden Seite an die verschiedenen Suchmaschinen zu senden, die dann einen Webcrawler zur Analyse der Seite aussendeten und diese indexierten. Der Webcrawler lud die Webseite auf den Server der Suchmaschine, wo ein zweites Programm, der sogenannte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu anderen Seiten). Die Seitenbesitzer erkannten recht schnell den Wert einer bevorzugten Listung in den Suchergebnissen der Suchmaschinen und recht bald entwickelten sich Unternehmen, die sich auf diese Technik spezialisierten.

Die frühen Versionen der Suchalgorithmen basierten auf Informationen, die durch die Webmaster selbst gegeben wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Überblick über den Inhalt einer Seite, allerdings stellte sich bald heraus, dass die Nutzung dieser Hinweise nicht zuverlässig war, da die Wahl der verwendeten Schlüsselworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts widerspiegeln konnte. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Seiten bei spezifischen Suchen listen. Auch versuchten Seitenersteller verschiedene Attribute innerhalb des HTML-Codes einer Seite so zu manipulieren, dass die Seite besser in den Suchergebnissen gelistet wird.

Da die frühen Suchmaschinen sehr auf Faktoren angewiesen waren, die allein in den Händen der Webmaster lagen, waren sie auch sehr anfällig für Missbrauch und Manipulationen im Ranking. Um bessere und relevantere Ergebnisse in den Suchergebnissen zu erhalten, mussten sich die Betreiber der Suchmaschinen an diese Gegebenheiten anpassen. Weil der Erfolg einer Suchmaschine davon abhängt, relevante Suchergebnisse zu den gestellten Suchbegriffen anzuzeigen, konnten unpassende Ergebnisse dazu führen, dass sich die Benutzer nach anderen Möglichkeiten für die Suche im Web umsehen. Die Antwort der Suchmaschinen bestand in komplexeren Algorithmen für das Ranking, die Faktoren beinhalteten, die von Webmastern nicht oder nur schwer beeinflussbar waren. Larry Page und Sergey Brin entwickelten mit „Backrub“ eine Suchmaschine, die auf einem mathematischen Algorithmus basierte, der die Prominenz von Webseiten bewertete. Die Nummer, die vom Algorithmus (PageRank) zu einer Seite berechnet wurde, ist eine Funktion der Quantität und der Stärke von Backlinks.[4] PageRank gibt die Wahrscheinlichkeit wieder, dass ein Benutzer auf einer bestimmten Webseite landet, wenn er durch das Web surft und zufällig Links anklickt.

Page und Brin gründeten Google 1998 und das simple Design verhalf der Suchmaschine zu einem enormen Erfolg. Google verwendete Off-Page-Faktoren (wie PageRank und Hyperlinkanalysen) genauso wie On-Page-Faktoren (Frequenz von Schlüsselworten, Metadaten, Seitenstruktur etc.) für das Ranking. Die Suchmaschine wollte damit Manipulationen wie in jenen Suchmaschinen umgehen, die nur die On-Page-Faktoren verwendeten. Obwohl PageRank schwieriger zu beeinflussen war, hatten Webmaster bereits Strategien und Tools zum Linkbuilding entwickelt, die es ihnen erlaubten, das Ranking der Suchmaschine Inktomi zu beeinflussen. Diese Methoden erwiesen sich auch erfolgreich für PageRank. Viele Seiten legten ihren Schwerpunkt auf das Kaufen, Verkaufen und Tauschen von Links, oftmals in großem Ausmaß. Diese Linkfarmen erstellten oftmals tausende Seiten mit dem einzigen Ziel, Linkspamming zu betreiben.

Ab 2004 setzten Suchmaschinen ein weites Spektrum an geheimgehaltenen Faktoren in ihre Rankingalgorithmen ein, um den Einfluss durch Linkmanipulationen zu vermindern. 2007 benutzte Google bereits mehr als 200 verschiedene Signale, um die Listung spezifischer Webseiten in den Suchergebnissen zu bestimmen. Die führenden Suchmaschinen Google, Bing und Yahoo geben die Algorithmen für das Ranking nicht preis. Einige SEOs studierten diese mit verschiedenen Annäherungen zur Suchmaschinenoptimierung und teilten ihre Erkenntnisse. Auch Patente in Bezug auf Suchmaschinen wurden zur Informationsgewinnung über die Funktion herangezogen.

2005 begann Google die Suchergebnisse auf Basis der früheren Suchanfragen registrierter Nutzer zu personalisieren. Bruce Clay erklärte daraufhin 2008, dass Ranking aufgrund der personalisierten Suche keinen Sinn mehr habe und die Diskussionen über Manipulationen beim Ranking von Suchmaschinen obsolet seien, da gleiche Suchanfragen bei unterschiedlichen Nutzern potentiell andere Ergebnisse liefern würden.

2007 kündigte Google eine Kampagne gegen gekaufte Links an, die Einfluss auf PageRank ausüben. 2009 teilte Google mit, dass Maßnahmen ergriffen wurden, um die Effekte des sogenannten PageRank-Sculptings (eine Methode, um bestimmten Links auf einer Seite mehr Gewicht zu verleihen und das Linkziel dadurch in Google höher zu listen) durch das “nofollow“-Attribut auf Links einzuschränken. Dieses Attribut, ursprünglich von Google eingeführt, wurde nun von PageRank nicht mehr berücksichtigt, um die Effekte des PageRank-Sculptings durch SEOs abzuschwächen. Als Reaktion wurden bald andere Techniken angewandt, die nofollow-Tags mit verstecktem Java-Code ersetzten, wodurch PageRank-Sculpting wieder möglich wurde. Auch andere Lösungsansätze, wie der Gebrauch von iframes oder Flash, wurden vorgeschlagen.

2009 gab Google bekannt, die Suchgeschichte aller Nutzer für populäre Suchergebnisse heranzuziehen. 2010 stellte Google das neue Indexsystem Google Caffeine vor. Es ermöglichte Benutzern die Suche nach Nachrichten, Forenbeiträgen und anderweitigem Content kurz nach dem Veröffentlichungsdatum. Google Caffeine stellte einen Wechsel dar in der Art und Weise, wie Google seinen Index aktualisiert.

Die Echtzeitsuche Google Instant wurde 2010 vorgestellt, um Suchergebnisse zeitnaher und relevanter erscheinen zu lassen. Durch die steigende Popularität von Sozialen Netzwerken und Blogs, wurde dem mit der Echtzeitsuche Rechnung getragen und verstärkt darauf fokussiert.

Mit dem Panda-Upgrade 2011 wurden schließlich Webseiten abgestraft, die Seiteninhalte von anderen Seiten kopierten. Diese Technik wurde bisweilen angewandt, um in Suchergebnissen höher gelistet zu sein. Mit Google Penguin 2012 werden auch Seiten abgestraft, die manipulative Techniken zur Verbesserung des Rankings anwenden.

Quelle: Seite „Suchmaschinenoptimierung“. In: Wikipedia, Die freie Enzyklopädie.

Bearbeitungsstand: 31. Oktober 2017, 08:18 UTC.

URL: https://www.omt.de/suchmaschinenoptimierung/ 

(Abgerufen: 29. Dezember 2017, 15:01 UTC)