Tag: SEO
Mitte der 1990er Jahre fingen die 1. Internet Suchmaschinen an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten schnell den Wert einer nahmen Listung in Ergebnissen und recht bald entwickelten sich Firma, die sich auf die Optimierung qualifitierten.
In den Anfängen geschah die Aufnahme oft zu der Übertragung der URL der jeweiligen Seite an die verschiedenen Suchmaschinen im Internet. Diese sendeten dann einen Webcrawler zur Kritische Auseinandersetzung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Web Server der Search Engine, wo ein weiteres Softwaresystem, der allgemein so benannte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu diversen Seiten).
Die neuzeitlichen Typen der Suchalgorithmen basierten auf Informationen, die dank der Webmaster selber existieren wurden von empirica, wie Meta-Elemente, oder durch Indexdateien in Internet Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Gesamteindruck per Thema einer Seite, dennoch setzte sich bald heraus, dass die Anwendung dieser Hinweise nicht zuverlässig war, da die Wahl der angewendeten Schlüsselworte durch den Webmaster eine ungenaue Erläuterung des Seiteninhalts sonstige Verben kann. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Unterseiten bei spezifischen Brauchen listen.[2] Auch versuchten Seitenersteller diverse Attribute im Laufe des HTML-Codes einer Seite so zu lenken, dass die Seite größer in den Suchergebnissen aufgeführt wird.[3]
Da die neuzeitlichen Suchmaschinen sehr auf Aspekte abhängig waren, die einzig in den Taschen der Webmaster lagen, waren sie auch sehr labil für Delikt und Manipulationen in der Positionierung. Um überlegenere und relevantere Vergleichsergebnisse in den Suchergebnissen zu erhalten, musste ich sich die Operatoren der Suchmaschinen an diese Gegebenheiten adjustieren. Weil der Erfolg einer Suchseite davon anhängig ist, wichtigste Ergebnisse der Suchmaschine zu den gestellten Suchbegriffen anzuzeigen, vermochten unpassende Testergebnisse zur Folge haben, dass sich die User nach sonstigen Wege bei der Suche im Web umschauen. Die Rückmeldung der Search Engines lagerbestand in komplexeren Algorithmen fürs Rangfolge, die Kriterien beinhalteten, die von Webmastern nicht oder nur kompliziert steuerbar waren. Larry Page und Sergey Brin konstruierten mit „Backrub“ – dem Stammvater von Suchmaschinen – eine Suchseite, die auf einem mathematischen Routine basierte, der mit Hilfe der Verlinkungsstruktur Internetseiten gewichtete und dies in den Rankingalgorithmus einfließen ließ. Auch andere Internet Suchmaschinen bedeckt in Mitten der Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.