Tag: SEO
Mitte der 1990er Jahre fingen die ersten Suchmaschinen im Netz an, das frühe Web zu ordnen. Die Seitenbesitzer erkannten schnell den Wert einer bevorzugten Listung in Ergebnissen und recht bald entstanden Einrichtung, die sich auf die Verbesserung ausgebildeten.
In Anfängen ereignete sich die Aufnahme oft bezüglich der Transfer der URL der jeweiligen Seite in puncto diversen Suchmaschinen im Internet. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetseite auf den Web Server der Suchseiten, wo ein zweites Angebot, der bekannte Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu ähnlichen Seiten).
Die frühen Varianten der Suchalgorithmen basierten auf Informationen, die anhand der Webmaster eigenständig vorgegeben worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben eine Übersicht via Content einer Seite, allerdings setzte sich bald herab, dass die Verwendung er Hinweise nicht verlässlich war, da die Wahl der angewendeten Schlagworte durch den Webmaster eine ungenaue Beschreibung des Seiteninhalts widerspiegeln hat. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Webseiten bei einzigartigen Recherchieren listen.[2] Auch versuchten Seitenersteller verschiedene Eigenschaften innert des HTML-Codes einer Seite so zu manipulieren, dass die Seite größer in Resultaten gefunden wird.[3]
Da die zeitigen Suchmaschinen im Internet sehr auf Merkmalen abhängig waren, die einzig in Händen der Webmaster lagen, waren sie auch sehr instabil für Schindluder und Manipulationen in der Positionierung. Um gehobenere und relevantere Ergebnisse in Suchergebnissen zu bekommen, mussten sich die Anbieter der Suchmaschinen im Internet an diese Gegebenheiten adaptieren. Weil der Ergebnis einer Suchseiten davon anhängig ist, wichtige Suchergebnisse zu den inszenierten Keywords anzuzeigen, konnten unpassende Vergleichsergebnisse dazu führen, dass sich die Mensch nach weiteren Möglichkeiten bei der Suche im Web umblicken. Die Auskunft der Suchmaschinen im Internet lagerbestand in komplexeren Algorithmen fürs Platz, die Merkmalen beinhalteten, die von Webmastern nicht oder nur mühevoll lenkbar waren. Larry Page und Sergey Brin entworfenen mit „Backrub“ – dem Urahn von Google – eine Anlaufstelle, die auf einem mathematischen Matching-Verfahren basierte, der mit Hilfe der Verlinkungsstruktur Webseiten gewichtete und dies in den Rankingalgorithmus einfluss besitzen ließ. Auch zusätzliche Search Engines bedeckt während der Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine