Hallo!
Ich hätte eine Frage zu robots.txt bzw. ausschließen von suchbots.
Habe folgende txt auf meinen Server geladen
robots.txt
Inhalt ist folgender:
User-agent: *
Disallow: /
und in jede htm* seite habe ich folgendes eingefügt:
<head>
<meta name="robots" content="noindex, nofollow">
<meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1">
<title></title>
</head>
Laut Statistik haben z.B. der googlebot bzw. livebot meine Seiten wieder besucht. Trotzdem finde ich diese noch wenn ich sie dort suche.
Könnt ihr mir sagen, ob ich einen Fehler gemacht habe, ob das entfernen länger dauert, .....!?
Danke
Red