Tag: SEO
Mitte der 1990er Jahre fingen die aller ersten Suchmaschinen im WWW an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten zügig den Wert einer lieblings Positionierung in den Suchergebnissen und recht bald fand man Unternehmen, die sich auf die Verfeinerung ausgerichteten.
In Anfängen vollzogen wurde der Antritt oft über die Übermittlung der URL der entsprechenden Seite in puncto verschiedenartigen Search Engines. Diese sendeten dann einen Webcrawler zur Untersuchung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Homepage auf den Web Server der Recherche, wo ein 2. Softwaresystem, der die bekannten Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu sonstigen Seiten).
Die späten Modellen der Suchalgorithmen basierten auf Informationen, die anhand der Webmaster sogar bestehen werden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben einen Gesamtüberblick über den Content einer Seite, jedoch registrierte sich bald raus, dass die Benutzung der Details nicht ordentlich war, da die Wahl der angewendeten Schlagworte dank dem Webmaster eine ungenaue Vorführung des Seiteninhalts spiegeln kann. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Webseiten bei speziellen Benötigen listen.[2] Auch versuchten Seitenersteller unterschiedliche Attribute innert des HTML-Codes einer Seite so zu manipulieren, dass die Seite passender in den Suchergebnissen aufgeführt wird.[3]
Da die damaligen Suchmaschinen im Netz sehr auf Faktoren abhängig waren, die nur in Koffern der Webmaster lagen, waren sie auch sehr vulnerabel für Schindluder und Manipulationen in der Positionierung. Um gehobenere und relevantere Resultate in Resultaten zu bekommen, mussten sich die Operatoren der Suchmaschinen im Internet an diese Rahmenbedingungen angleichen. Weil der Ergebnis einer Suchseiten davon anhängig ist, wesentliche Suchergebnisse zu den gestellten Suchbegriffen anzuzeigen, konnten ungünstige Ergebnisse zur Folge haben, dass sich die Mensch nach anderweitigen Wege bei der Suche im Web umsehen. Die Antwort der Suchmaschinen im Netz inventar in komplexeren Algorithmen beim Rangordnung, die Faktoren beinhalteten, die von Webmastern nicht oder nur schwierig beeinflussbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Stammvater von Google – eine Anlaufstelle, die auf einem mathematischen KI basierte, der mit Hilfe der Verlinkungsstruktur Seiten gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch weitere Suchmaschinen im WWW bezogen zu Beginn der Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.
Bing