Ingo Siemon: 3 Fragen zur robot.txt

Beitrag lesen

Hallo

Ich möchte meine eigenen Fehlerseiten (404er usw.) gerne
in der robots.txt als Disallow markieren.
Ich dachte, dass ist sinnvoll, damit diese nicht in Suchmschinen auftauchen.
Seht Ihr das auch so?

Wenn die Fehlerseiten-dateien im Hauptverzeichnis meiner Seite stehen,
genau, wie auch die robots-txt, wie muss es dann heissen:
  User-agent: *
  Disallow: /fehler404.htm
oder
  User-agent: *
  Disallow: fehler404.htm

Da die robots.txt ja von jedem User direkt im Browser aufgerufen wrden kann,
verrate ich damit doch im Grunde genau die Verzeichnisse/Dateien,
die ich ja eigentlich nicht so an die große Glocke hängen will.
Ist denn unter diesem Aspekt eine solche robots.txt überhaupt sinnvoll?
Oder ist es besser, das in den Metaangaben der einzelnen Dateien zu machen?

Gruß
Ingo