Auge: robots.txt

Beitrag lesen

Hallo

»» Einen speziellen Schutz brauchst Du also nicht. Allenfalls das Directory-Listing mittels .htaccess unterbinden

Bedeutet dies, dass niemand das Verzeichnis nach Dateien durchsuchen kann und man Dateien nur aufrufen könnte, wenn man den Namen kennt (z.B. wie Du geschrieben hast durch einen vorhandenen Link)?

Wenn mir der Name der Ressource bekannt ist, kann ich sie auch aufrufen (ein Robot dementsprechend auch), solange ich mich dem Server gegenüber nicht authentifizieren muss. Das, was Patrick vorgeschlagen hat, verhindert nur, dass mir unbekannte Ressourcen *sichtbar* werden, geschützt werden sie dadurch nicht.

Und die Neugierdeseite weil vor allem nach index... gesucht wird?

Webserver haben Einstellungen, welche Ressource ausgeliefert wird, wenn nur Domain und evtl. Verzeichnisse angefordert werden. Meist sind das in einer festgelegten Reihenfolge index.htm(l), index.php, default.htm(l), default.php ...

Wird nun www.example.com/unterverzeichnis/ ohne Angabe einer speziellen Ressource angefordert, wird die zuerst gefundene Ressource aus der Liste ausgeliefert. Ist keine der Ressourcen vorhanden, wird entweder eine Fehlermeldung oder das Directory Listing (Auflistung der im angeforderten Verzeichnis vorhandenen Dateien und Unterverzeichnisse) ausgeliefert. Das kommt auf die Einstellungen des Servers an. Ist Directory Listing aktiviert und eine Änderung dieser Einstellung für dich nicht möglich, kannst du die Anzeige des Listings mit der index.html umgehen, da sie dann automatisch ausgeliefert wird.

Tschö, Auge

--
Die deutschen Interessen werden am Liechtenstein verteidigt.
Veranstaltungsdatenbank Vdb 0.3