Coco: robots.txt

Beitrag lesen

Hallo liebe Formumsteilnehmer,

ich bin unsicher, was den abschliessenden Slash im Disallow-Befehl einer robots.txt angeht.

Gewünscht ist, dass alle im Verzeichnis "norobots" befindlichen Dateien UND UNTERVERZEICHNISSE nicht gespidert werden

Beispiel:
Disallow: /norobots/

Werden mit diesem Befehl auch die im Verzeichnis "norobots" befindlichen Unterverzeichnisse für die Spider gesperrt oder müsste ich den Slash am Ende dann weglassen?
Disallow: /norobots

Oder muss ich alle Unterverzeichnisse separat sperren?
Disallow: /norobots/sub1/
Disallow: /norobots/sub2/
Disallow: /norobots/sub3/

Herzlichen Dank schon im Voraus und entschuldigt die umständliche Fragestellung.

Coco