Cheatah: 3 Fragen zur robot.txt

Beitrag lesen

Hi,

Ich möchte meine eigenen Fehlerseiten (404er usw.) gerne
in der robots.txt als Disallow markieren.

diese wird ein Client, egal welcher, außer bei einer Fehlkonfiguration Deines Servers (oder direkter Verlinkung - aber wozu dies?) niemals in Form einer URI erhalten. Er erkennt Fehler am Statuscode der Ressource.

Da die robots.txt ja von jedem User direkt im Browser aufgerufen wrden kann,
verrate ich damit doch im Grunde genau die Verzeichnisse/Dateien,

Nein. Du verrätst URIs. Ob diese etwas mit Verzeichnissen und/oder Dateien zu tun haben, hängt einzig und allein von Dir ab.

Ist denn unter diesem Aspekt eine solche robots.txt überhaupt sinnvoll?

In dieser Ressource werden URIs genannt. URIs, die ein Suchmaschinen-Client ganz exakt so erhält wie ein graphischer Benutzer-Client: Durch Verlinkung.

Cheatah

--
X-Self-Code: sh:( fo:} ch:~ rl:° br:> n4:& ie:% mo:) va:) de:] zu:) fl:{ ss:) ls:~ js:|
X-Self-Code-Url: http://emmanuel.dammerer.at/selfcode.html
X-Will-Answer-Email: No
X-Please-Search-Archive-First: Absolutely Yes