ChrisB: .htaccess-Datei: Sicherheit und robots

Beitrag lesen

Hi,

Alle Dateien liegen im geschützten Verzeichnis. Ein Link von einer offenen Seite führt dazu. Ich habe in das geschützte Verzeichnis eine .htaccess-Datei mit "... require user nutzer1 nutzer2 ..." eingestellt, darüberhinaus in das root-Verzeichnis (also eine Ebene über dem geschützen Verzeichnis) eine Datei .htpasswd mit den entsprechenden, md5-gekrypteten Passwörtern. Es funktioniert beim Testen alles wie gewünscht.

Ist dieses Verzeichnis nun mit vernünftigem Aufwand gegen "normale" Anwender geschützt?

Erst mal theoretisch: Ja.

Gibt es noch bestimmte Lücken, die ich für einen sicheren Schutz schließen muß und die Anfänger gerne übersehen?

Basic Auth überträgt die Zugangsdaten im Klartext - Digest wäre vorzuziehen.

Können robots diese Seiten finden?

Überleg' bitte selbst - worüber greifen Robots zu? HTTP. Und welche Antwort erhalten sie da, wenn sie keine Zugangsdaten mitsenden ...?

MfG ChrisB

--
RGB is totally confusing - I mean, at least #C0FFEE should be brown, right?