Tag: SEO
Mitte der 1990er Jahre fingen die 1. Suchmaschinen im Internet an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten flott den Wert einer bevorzugten Listung in Suchergebnissen und recht bald fand man Einrichtung, die sich auf die Aufbesserung spezialisierten.
In den Anfängen erfolgte die Aufnahme oft über die Übertragung der URL der passenden Seite bei der vielfältigen Suchmaschinen im Netz. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetpräsenz auf den Server der Suchseite, wo ein weiteres Angebot, der allgemein so benannte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu anderweitigen Seiten).
Die späten Versionen der Suchalgorithmen basierten auf Informationen, die mithilfe der Webmaster eigenhändig vorgegeben wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben eine Gesamtübersicht mit Gegenstand einer Seite, doch stellte sich bald hervor, dass die Benutzung dieser Hinweise nicht ordentlich war, da die Wahl der benutzten Schlüsselworte durch den Webmaster eine ungenaue Vorführung des Seiteninhalts reflektieren hat. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Webseiten bei speziellen Brauchen listen.[2] Auch versuchten Seitenersteller mehrere Merkmale in einem Zeitraum des HTML-Codes einer Seite so zu manipulieren, dass die Seite besser in den Suchergebnissen gelistet wird.[3]
Da die späten Suchmaschinen im Internet sehr auf Punkte dependent waren, die bloß in den Fingern der Webmaster lagen, waren sie auch sehr instabil für Missbrauch und Manipulationen in der Positionierung. Um gehobenere und relevantere Testergebnisse in Serps zu erhalten, mussten sich die Betreiber der Search Engines an diese Faktoren integrieren. Weil der Gewinn einer Suchseite davon abhängt, wesentliche Ergebnisse der Suchmaschine zu den inszenierten Suchbegriffen anzuzeigen, konnten ungeeignete Testergebnisse dazu führen, dass sich die Benützer nach anderweitigen Chancen wofür Suche im Web umschauen. Die Erwiderung der Suchmaschinen im Internet lagerbestand in komplexeren Algorithmen für das Platz, die Aspekte beinhalteten, die von Webmastern nicht oder nur nicht leicht manipulierbar waren. Larry Page und Sergey Brin entworfenen mit „Backrub“ – dem Vorläufer von Suchmaschinen – eine Suchseite, die auf einem mathematischen Suchalgorithmus basierte, der mit Hilfe der Verlinkungsstruktur Websites gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch andere Suchmaschinen im Internet bedeckt in der Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.
Suchmaschinen