Nach welchen kriterien sortiert das "clear web" aus?

... komplette Frage anzeigen

4 Antworten

"

Nach der Übereinkunft des Robots-Exclusion-Standard-Protokolls liest ein Webcrawler (Robot) beim Auffinden einer Webseite zuerst die Datei robots.txt(kleingeschrieben) im Stammverzeichnis („root“) einer Domain. In dieser Datei kann festgelegt werden, ob und wie die Webseite von einem Webcrawler besucht werden darf. Website-Betreiber haben so die Möglichkeit, ausgesuchte Bereiche ihrer Website für (bestimmte) Suchmaschinen zu sperren. Das Protokoll ist rein hinweisend und ist auf die Mitarbeit des Webcrawlers angewiesen. Man spricht hier auch von „freundlichen“ Webcrawlern. Ein Ausgrenzen bestimmter Teile einer Website durch das Protokoll garantiert keine Geheimhaltung, dazu sind Seiten oder Unterverzeichnisse eines Servers durch HTTP-Authentifizierung, eine Access Control List (ACL) oder einen ähnlichen Mechanismus zu schützen. Manche Suchmaschinen zeigen die vom Webcrawler gefundenen und zu sperrenden URLstrotzdem in den Suchergebnisseiten an, jedoch ohne Beschreibung der Seiten.

Das Protokoll wurde 1994 von einer unabhängigen Gruppierung entwickelt, ist inzwischen jedoch allgemein anerkannt und kann als Quasi-Standard betrachtet werden. Anfang Juni 2008 bekannten sich Google,[1] Microsoft und Yahoo zu einigen Gemeinsamkeiten.[2]

"

wikipedia

Antwort bewerten Vielen Dank für Deine Bewertung

Das wichtigste Kriterium ist, wie viele Fremde Seiten auf dich verlinken. Außerdem ist wichtig, wie lange User auf der Seite bleiben und sie probieren, den Text zu verstehen.

Antwort bewerten Vielen Dank für Deine Bewertung

Das funktioniert ganz anders. Suchmaschienen unterscheiden nicht zwischen clear u. dark web. Es gibt alöerdings internetadressen die von Google etc. nicht indexiert werden. Diese verwenden dann die Betreiber von Webseiten im Darkweb. Deswegen kannst du über Suchmaschienen keine Dark web Seiten finden.

Antwort bewerten Vielen Dank für Deine Bewertung

Hallo acdcmb,

was dich interessiert sind die sogenannten Ranking Faktoren. Googles Ranking Faktoren sind sehr ausgefeilt. Man munkelt, es sind über 200

Die sind aber geheim. Sonst würde man natürlich die ausreizen, welche man selbst manipulieren kann. U.a. das will Google verhindern.

Backlinks, Bouncing Rate und Content sind nur einige wenige (wichtige) der Faktoren.

Falls du dich mehr für das Thema interessierst, einfach mal "Ranking faktoren" googlen!

Viel spaß & viele grüße aus dem Pott,

chris

Antwort bewerten Vielen Dank für Deine Bewertung