Tag: SEO
Mitte der 1990er Jahre fingen die 1. Suchmaschinen an, das frühe Web zu sortieren. Die Seitenbesitzer erkannten unmittelbar den Wert einer bevorzugten Positionierung in Resultaten und recht bald entwickelten sich Unternehmen, die sich auf die Optimierung spezialisierten.
In den Anfängen ereignete sich der Antritt oft bezüglich der Übermittlung der URL der richtigen Seite bei der unterschiedlichen Suchmaschinen im WWW. Diese sendeten dann einen Webcrawler zur Analyse der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetpräsenz auf den Web Server der Suchmaschine, wo ein 2. Softwaresystem, der gern genutzte Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu anderweitigen Seiten).
Die frühen Modellen der Suchalgorithmen basierten auf Angaben, die dank der Webmaster selbst bestehen worden sind, wie Meta-Elemente, oder durch Indexdateien in Search Engines wie ALIWEB. Meta-Elemente geben einen Gesamteindruck per Content einer Seite, allerdings stellte sich bald hoch, dass die Anwendung dieser Tipps nicht solide war, da die Wahl der verwendeten Schlagworte durch den Webmaster eine ungenaue Vorführung des Seiteninhalts reflektieren vermochten. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Internetseiten bei einzigartigen Brauchen listen.[2] Auch versuchten Seitenersteller vielfältige Merkmale binnen des HTML-Codes einer Seite so zu manipulieren, dass die Seite passender in Serps aufgeführt wird.[3]
Da die frühen Suchmaschinen sehr auf Faktoren angewiesen waren, die nur in Koffern der Webmaster lagen, waren sie auch sehr empfänglich für Delikt und Manipulationen im Ranking. Um gehobenere und relevantere Urteile in den Resultaten zu bekommen, mussten wir sich die Betreiber der Suchmaschinen im Internet an diese Gegebenheiten integrieren. Weil der Gewinn einer Suchseite davon abhängt, relevante Ergebnisse der Suchmaschine zu den gestellten Suchbegriffen anzuzeigen, konnten ungeeignete Resultate dazu führen, dass sich die Nutzer nach sonstigen Chancen für die Suche im Web umschauen. Die Antwort der Suchmaschinen im WWW fortbestand in komplexeren Algorithmen für das Ranking, die Kriterien beinhalteten, die von Webmastern nicht oder nur nicht gerade leicht steuerbar waren. Larry Page und Sergey Brin entwickelten mit „Backrub“ – dem Urahn von Google – eine Anlaufstelle, die auf einem mathematischen Suchalgorithmus basierte, der mit Hilfe der Verlinkungsstruktur Websites gewichtete und dies in Rankingalgorithmus reingehen ließ. Auch sonstige Search Engines bedeckt bei Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.
Suchmaschinen