Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Search Engines an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten schnell den Wert einer nahmen Positionierung in Resultaten und recht bald fand man Betrieb, die sich auf die Aufwertung ausgerichteten.
In den Anfängen bis zu diesem Zeitpunkt der Antritt oft über die Übermittlung der URL der speziellen Seite an die divergenten Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Webserver der Suchseite, wo ein 2. Softwaresystem, der allgemein so benannte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu ähnlichen Seiten).
Die damaligen Modellen der Suchalgorithmen basierten auf Informationen, die aufgrund der Webmaster selbst vorhanden worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben einen Überblick mit Thema einer Seite, dennoch registrierte sich bald raus, dass die Einsatz dieser Ratschläge nicht vertrauenswürdig war, da die Wahl der verwendeten Schlüsselworte dank dem Webmaster eine ungenaue Erläuterung des Seiteninhalts repräsentieren hat. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Internetseiten bei einzigartigen Ausschau halten listen.[2] Auch versuchten Seitenersteller verschiedene Punkte im Laufe des HTML-Codes einer Seite so zu manipulieren, dass die Seite überlegen in den Resultaten gelistet wird.[3]
Da die neuzeitlichen Internet Suchmaschinen sehr auf Merkmalen dependent waren, die einzig in Taschen der Webmaster lagen, waren sie auch sehr labil für Missbrauch und Manipulationen im Ranking. Um vorteilhaftere und relevantere Urteile in Suchergebnissen zu erhalten, mussten wir sich die Betreiber der Suchmaschinen an diese Rahmenbedingungen angleichen. Weil der Triumph einer Search Engine davon abhängt, essentielle Suchergebnisse zu den gestellten Suchbegriffen anzuzeigen, konnten unpassende Testurteile dazu führen, dass sich die Benutzer nach sonstigen Chancen bei der Suche im Web umgucken. Die Auflösung der Suchmaschinen im Internet inventar in komplexeren Algorithmen beim Positionierung, die Faktoren beinhalteten, die von Webmastern nicht oder nur kompliziert kontrollierbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Stammvater von Google – eine Anlaufstelle, die auf einem mathematischen Routine basierte, der mit Hilfe der Verlinkungsstruktur Internetseiten gewichtete und dies in den Rankingalgorithmus einfließen ließ. Auch sonstige Suchmaschinen im WWW orientiert in Mitten der Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.