Tag: SEO
Mitte der 1990er Jahre fingen die 1. Suchmaschinen im Netz an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten direkt den Wert einer lieblings Positionierung in Ergebnissen und recht bald entstanden Betrieb, die sich auf die Verfeinerung ausgebildeten.
In den Anfängen geschah der Antritt oft über die Übertragung der URL der richtigen Seite an die diversen Search Engines. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Server der Anlaufstelle, wo ein zweites Computerprogramm, der die bekannten Indexer, Angaben herauslas und katalogisierte (genannte Ansprüche, Links zu anderen Seiten).
Die damaligen Typen der Suchalgorithmen basierten auf Informationen, die durch die Webmaster selbst bestehen werden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben einen Gesamtüberblick mit Gegenstand einer Seite, gewiss setzte sich bald raus, dass die Anwendung er Ratschläge nicht vertrauenswürdig war, da die Wahl der benutzten Schlagworte durch den Webmaster eine ungenaue Beschreibung des Seiteninhalts reflektieren kann. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Webseiten bei charakteristischen Recherchieren listen.[2] Auch versuchten Seitenersteller verschiedenartige Merkmale innerhalb des HTML-Codes einer Seite so zu beherrschen, dass die Seite passender in den Resultaten gelistet wird.[3]
Da die späten Suchmaschinen im Netz sehr auf Punkte abhängig waren, die ausschließlich in Fingern der Webmaster lagen, waren sie auch sehr unsicher für Missbrauch und Manipulationen im Ranking. Um tolle und relevantere Ergebnisse in Suchergebnissen zu erhalten, mussten wir sich die Operatoren der Suchmaschinen im Netz an diese Faktoren integrieren. Weil der Ergebnis einer Suchseiten davon anhängig ist, wichtige Ergebnisse der Suchmaschine zu den inszenierten Suchbegriffen anzuzeigen, vermochten ungünstige Testurteile zur Folge haben, dass sich die Nutzer nach weiteren Entwicklungsmöglichkeiten für den Bereich Suche im Web umsehen. Die Erwiderung der Search Engines lagerbestand in komplexeren Algorithmen beim Rang, die Aspekte beinhalteten, die von Webmastern nicht oder nur kompliziert beeinflussbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Urahn von Bing – eine Suchseiten, die auf einem mathematischen KI basierte, der mit Hilfe der Verlinkungsstruktur Webseiten gewichtete und dies in Rankingalgorithmus einfließen ließ. Auch übrige Internet Suchmaschinen orientiert pro Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.