Tag: SEO
Mitte der 1990er Jahre fingen die allerersten Search Engines an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten unmittelbar den Wert einer bevorzugten Positionierung in den Ergebnissen und recht bald entstanden Behörde, die sich auf die Aufbesserung professionellen.
In Anfängen geschah der Antritt oft zu der Übermittlung der URL der speziellen Seite bei der divergenten Suchmaschinen. Diese sendeten dann einen Webcrawler zur Kritische Auseinandersetzung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Webserver der Search Engine, wo ein weiteres Programm, der die bekannten Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu weiteren Seiten).
Die frühen Varianten der Suchalgorithmen basierten auf Infos, die aufgrund der Webmaster auch existieren worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben eine Gesamtübersicht mit Gegenstand einer Seite, gewiss stellte sich bald raus, dass die Inanspruchnahme dieser Ratschläge nicht gewissenhaft war, da die Wahl der genutzten Schlagworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts reflektieren kann. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Seiten bei speziellen Stöbern listen.[2] Auch versuchten Seitenersteller verschiedenartige Merkmale in des HTML-Codes einer Seite so zu beeinflussen, dass die Seite größer in Suchergebnissen gefunden wird.[3]
Da die damaligen Suchmaschinen im Netz sehr auf Aspekte abhängig waren, die bloß in Taschen der Webmaster lagen, waren sie auch sehr anfällig für Missbrauch und Manipulationen in der Positionierung. Um bessere und relevantere Vergleichsergebnisse in den Resultaten zu erhalten, mussten wir sich die Unternhemer der Search Engines an diese Voraussetzungen angleichen. Weil der Gewinn einer Search Engine davon zusammenhängt, relevante Suchergebnisse zu den inszenierten Suchbegriffen anzuzeigen, konnten ungeeignete Testurteile dazu führen, dass sich die Nutzer nach weiteren Wege für die Suche im Web umgucken. Die Rückmeldung der Search Engines lagerbestand in komplexeren Algorithmen beim Rangfolge, die Faktoren beinhalteten, die von Webmastern nicht oder nur mühevoll manipulierbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Stammvater von Suchmaschinen – eine Suchseite, die auf einem mathematischen Routine basierte, der anhand der Verlinkungsstruktur Seiten gewichtete und dies in den Rankingalgorithmus einfluss besitzen ließ. Auch übrige Suchmaschinen im WWW bezogen in Mitten der Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.