Warum funktioniert meine Robots.txt nicht (Google, Webseite)?
Ich wollte einzelne Links von meiner Webseite aus der Google Suche entfernen lassen.
Habe dafür die Robots.txt verwendet. Leider möchte Google die Links nach einer Woche warten trotzdem nicht entfernen. Ich habe die Robots.txt auch schon mit dem Google Robots.txt tester getestet. Da sagt er mir, er kann die Datei lesen. Die Robotsdatei wurde auf jeden fall richtig beschrieben. Daran kann es auch nicht liegen.
Hmm jetzt frage ich mich woran es liegen könnte?
Jemand nh Idee?
LG