Frage von FoxBird, 32

Ist es ok den Google Bot durch die robots.txt beim Relaunch einer Website vorübergehend auszuschließen?

Wenn ich eine TYPO3 Website relaunche, dann ersetz ich die existierende robots.txt zunächst mit einer robots.txt, welche den Google Bot vorübergehend ausschließt und auch die Seiten setz ich zunächst auf noindex. Dies mache ich, da ich vor dem eigentlichen Release noch schauen möchte, ob alles passt, d.h. URLs entsprechend stimmen und angepasst wurden etc. Da die Testumgebung schon immer sehr nahe an der Live-Umgebung ist, dauert dies auch nicht lange, vielleicht maximal 8h falls ein schwerer wiegendes Problem auftreten sollte.

Nun ist meine Frage, ob diese 8h im worst case, dazu führen können, dass die Seite an Ranking verliert, da der Google Bot eventuell in diesen 8h vorbeischaut und dann ausgeschlossen wird oder ob das nicht so schlimm ist, da er wieder kommen wird und nach Release wieder crawlen kann?

Antwort
von action3227, Business, 20

Hallo FoxBird

Eine nur 8-stündige Unterbrechung wird sicher nicht zu Nachteilen im Ranking führen.

Google erlebt immer wieder solche "Aussetzer" bei Websites - aus ganz unterschiedlichen Gründen, die meisten sind technischer Natur (z.B. Serverfehler).

Würden solch kurze Unterbrechungen in der Erreichbarkeit einer Website sofort als Anlass zu Änderungen in deren Ranking verwendet, dann ergäbe dies "falsche Suchergebnisseiten".

Solltest du aber nach der 8-stündigen Relaunch-Phase vergessen, die robots.txt und die "index"-Verweise auf "normal" zurückzustellen und dadurch für eine längerfristige Unterbrechung in der Crawlbarkeit der Website sorgen, dann kann dies zu starken negativen Ranking-Veränderungen beitragen. "Längerfristig" definiert sich hier aber in mehreren Tagen und nicht nur wenigen Stunden.

Kommentar von FoxBird ,

Ok, danke. Das hab ich mir schon gedacht :).

Keine passende Antwort gefunden?

Fragen Sie die Community

Weitere Fragen mit Antworten