Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Suchmaschinen im WWW an, das frühe Web zu sortieren. Die Seitenbesitzer erkannten direkt den Wert einer bevorzugten Positionierung in Ergebnissen und recht bald entwickelten sich Betriebe, die sich auf die Verfeinerung ausgebildeten.
In Anfängen bis zu diesem Zeitpunkt die Aufnahme oft zu der Übertragung der URL der entsprechenden Seite bei der diversen Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Kritische Auseinandersetzung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetseite auf den Webserver der Anlaufstelle, wo ein 2. Programm, der allgemein so benannte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu weiteren Seiten).
Die neuzeitlichen Versionen der Suchalgorithmen basierten auf Infos, die mithilfe der Webmaster sogar existieren worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben einen Gesamteindruck über den Gehalt einer Seite, aber stellte sich bald hervor, dass die Benutzung dieser Vorschläge nicht zuverlässig war, da die Wahl der verwendeten Schlagworte dank dem Webmaster eine ungenaue Darstellung des Seiteninhalts sonstige Verben vermochten. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Websites bei einzigartigen Recherchieren listen.[2] Auch versuchten Seitenersteller diverse Punkte in einem Zeitraum des HTML-Codes einer Seite so zu interagieren, dass die Seite richtiger in Ergebnissen gefunden wird.[3]
Da die frühen Suchmaschinen im Netz sehr auf Aspekte angewiesen waren, die ausschließlich in den Fingern der Webmaster lagen, waren sie auch sehr vulnerabel für Straftat und Manipulationen in der Positionierung. Um höhere und relevantere Resultate in den Ergebnissen zu bekommen, mussten wir sich die Anbieter der Internet Suchmaschinen an diese Voraussetzungen einstellen. Weil der Ergebnis einer Search Engine davon abhängig ist, wichtigste Suchresultate zu den gestellten Keywords anzuzeigen, vermochten ungeeignete Resultate zur Folge haben, dass sich die Anwender nach ähnlichen Optionen für den Bereich Suche im Web umblicken. Die Erwiderung der Search Engines lagerbestand in komplexeren Algorithmen beim Positionierung, die Gesichtspunkte beinhalteten, die von Webmastern nicht oder nur schwer beeinflussbar waren. Larry Page und Sergey Brin entworfenen mit „Backrub“ – dem Urahn von Suchmaschinen – eine Recherche, die auf einem mathematischen KI basierte, der anhand der Verlinkungsstruktur Unterseiten gewichtete und dies in den Rankingalgorithmus reingehen ließ. Auch sonstige Suchmaschinen im Internet relevant zu Beginn der Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.
Yahoo