teilw Schutz per htaccess
Rüdiger
- webserver
0 Bio0 Rüdiger0 dailynight0 Rüdiger0 dailynight0 Dennis
0 ChrisB
Hallo!
Ich habe einen Teil meiner Webseite per .htaccess zugriffsgeschützt. Einige Seiten sollen aber noch abrufbar sein. Diese habe ich jeweils so festgelegt:
<Files datei.html>
order deny,allow
allow from all
satisfy any
</Files>
Zu diesen freigegebenen Seiten zählt auch die index.html
Einziges Problem ist nun aber, dass bei Aufruf der Internetseite http://www.dieinternetseite.de der Zugriff nicht erlaubt wird. Mit http://www.dieinternetseite.de/index.html funktioniert es einwandfrei, da ja die index.html u.a. freigegeben ist.
Wie kann ich das lösen?
Habe es schon mit
Redirect / http://www.dieinternetseite.de/index.html
versucht, leider ohne Erfolg (der Aufruf führt dann zum Aufruf http://www.dieinternetseite.de/index.htmlindex.html).
Kann mir jemand helfen?
Gruß
Rüdiger
Sup!
Warum legst Du die geschützten Seiten nicht einfach in ein anderes Verzeichnis, anstatt so Klimmzüge zu veranstalten?
Gruesse,
Bio
Hallo Bio
Warum legst Du die geschützten Seiten nicht einfach in ein anderes Verzeichnis, anstatt so Klimmzüge zu veranstalten?
Die Internetseite besteht aus mehreren (Unter-)Verzeichnissen. Da ich die Verzeichnisstruktur ungern ändern möchte (alle zu schützende Seiten und Ordner in einen Unterordner legen), wäre die einzige Alternative zu meiner, in jeden Unterordner eine .htaccess zu legen. Das wäre zu aufwendig.
Gruß
Rüdiger
Hallo Bio
Warum legst Du die geschützten Seiten nicht einfach in ein anderes Verzeichnis, anstatt so Klimmzüge zu veranstalten?
Die Internetseite besteht aus mehreren (Unter-)Verzeichnissen. Da ich die Verzeichnisstruktur ungern ändern möchte (alle zu schützende Seiten und Ordner in einen Unterordner legen), wäre die einzige Alternative zu meiner, in jeden Unterordner eine .htaccess zu legen. Das wäre zu aufwendig.
Gruß
Rüdiger
Also ich kann das nur unterstreichen. Es macht überhaupt keinen Sinn das Hauptmenue zu schützen. Dafür ist es auch gar nicht vorgesehen. Es ist unumgänglich das einige Verzeichnisse offen zugänglich sind. Entscheidend ist die Ordnerstruktur. In deinem Fall gibt es nur zwei Kategorien: geschützte und ungeschützte Ordner.
Geschützte Dateien in ungeschützten Ordnern oder umgekehrt sind eher ein Sicherheitsrisiko als denn ein Schutz. Das ist philosophisch der komplett falsche Ansatz. Sorry.
Davon mal abgesehen, was ist den mit diversen Suchmaschinen? Wie sollen die denn nachher das ganze Kauderwelsch auslesen, oder ist Dir das egal?
Im Übrigen brauchst Du nur einmal eine htaccess zu erstellen. Die kannst Du in jeden Ordner kopieren.
Hallo
Geschützte Dateien in ungeschützten Ordnern oder umgekehrt sind eher ein Sicherheitsrisiko als denn ein Schutz. Das ist philosophisch der komplett falsche Ansatz. Sorry.
Es handelt sich hier nur um einen vorübergehenden Schutz eines Teils der Internetseite. Das soll kein durchdachtes Schutzkonzept sein, das ist klar.
Davon mal abgesehen, was ist den mit diversen Suchmaschinen? Wie sollen die denn nachher das ganze Kauderwelsch auslesen, oder ist Dir das egal?
Die bekommen doch ganz normale HTTP-Statuscodes zurück. Wenn die das nicht verstehen...
Im Übrigen brauchst Du nur einmal eine htaccess zu erstellen. Die kannst Du in jeden Ordner kopieren.
Was je nach Anzahl der Ordner ziemlich aufwendig sein kann.
Gruß
Rüdiger
OK... also mal ehrlich. Suchmaschinen durchsuchen nicht nur URLs sondern auch Verzeichnisse -> ist also schon mal schlecht.
Und wenn eine Internettseite aus 1000 Ordnern besteht, von denen man 999 schützen muß, ist das ziemlich fragwürdige Arbeit. Das ist der Stoff aus dem die Fehlermeldungen sind. Wenn dann noch Verzeichnisse geschützt werden und wahrscheinlich noch mit relativen Links gearbeitet wir, dann wird so eine Internetseite richtig spannend.
Ich kenne keinen anderen Weg für Dein Problem. Und es entspricht auch sicherlich nicht der Grundidee des Webs bzw. der Serverstruktur solche Schutzverzeichnisse direkt im Root anzulegen.
Wobei Du ja selbst gesagt hast, dass das keine geeignete Schutzmassnahme darstellt. Dann lieber direkt richtig machen, anstatt immer wieder beipfuschen. Langfristig wäre eine "ordentliche" Ordnerstruktur sicherlich die bessere Lösung. Bitte nicht persönlich nehmen, ist halt meine Meinung.
Hi dailynight,
OK... also mal ehrlich. Suchmaschinen durchsuchen nicht nur URLs sondern auch Verzeichnisse
Das stimmt nicht. Suchmaschinen können per Definition keine Verzeichnisse durchsuchen, weil sie keinen Zugriff auf das Dateisystem haben.
Manche Server lassen sich so konfigurieren, dass sie beim Aufruf bestimmter Ressourcen, den Inhalt des dahinter stehenden Ordners anzeigen (Stichwort mod_autoindex für Apache), dann findet eine Suchmaschine natürlich die Links zu allen weiteren Dateien. Existiert so ein „Directory-Listing” nicht oder werden bestimmte Dateien konfigurationsbedingt nicht darin angezeigt, so haben Suchmaschinen auch keine Chance diese Dateien zu finden.
Ausnahme: Wenn irgendeine andere Seite einen direkten Link auf die Zieldatei setzt. Aber das ist ein anderes Kapitel.
Viele Grüße,
~ Dennis.
Hi dailynight,
OK... also mal ehrlich. Suchmaschinen durchsuchen nicht nur URLs sondern auch Verzeichnisse
Das stimmt nicht. Suchmaschinen können per Definition keine Verzeichnisse durchsuchen, weil sie keinen Zugriff auf das Dateisystem haben.
Hm... also das deckt sich nicht mit meiner Erfahrung. Bei uns wurden schon Ordnersrtukturen ausgelesen inkl. aller Inhalte. Haben wir anschließend als doppelten Inhalt in der Suchmaschine gehabt. BTW wir sind uns noch nicht einmal sicher, dass sich Suchmaschinen an die robots.txt halten. Klar, die Inhalte tauchen nicht in der Suchmaschine auf, aber ob sie intern nicht trotzdem gelistet werden....???? Nicht genaues weiß man nicht!
Manche Server lassen sich so konfigurieren, dass sie beim Aufruf bestimmter Ressourcen, den Inhalt des dahinter stehenden Ordners anzeigen (Stichwort mod_autoindex für Apache), dann findet eine Suchmaschine natürlich die Links zu allen weiteren Dateien. Existiert so ein „Directory-Listing” nicht oder werden bestimmte Dateien konfigurationsbedingt nicht darin angezeigt, so haben Suchmaschinen auch keine Chance diese Dateien zu finden.
Gut, das müßte ich dann recherchieren. Kann ich so nicht sagen. Letztlich habe ich den Verzeichnisaufbau mit dem Zugriffsschutz nicht verstanden. Die Suchmaschine war da eher von untergeordneter Bedeutung.
Ausnahme: Wenn irgendeine andere Seite einen direkten Link auf die Zieldatei setzt. Aber das ist ein anderes Kapitel.
Viele Grüße,
~ Dennis.
FAZIT: Das Verzeichnisdurcheinander ist nicht förderlich. Wie Suchmaschinen im Ernstfall reagieren wäre zu prüfen. Ich persönlich würde es sowieso in keinem Fall so handhaben, selbst wenn funktionieren würde, was ich bezweifel ...
Hallo
es ist sicher richtig, dass ein solcher Verzeichnisaufbau bzw. ein solches Schutzkonzept nicht besonders durchdacht und sinnvoll ist.
Aber, was ich vielleicht noch nicht deutlich genug gemacht habe: Teile der Internetseite sollen nur vorübergehend geschützt werden, es handelt sich um eine temporäre Lösung. Normalerweise sind diese Teile ebenso frei zugänglich.
Deshalb möchte ich jetzt nichts an der Ordnerstruktur ändern und frage nochmal, ob jemandem vielleicht eine Lösung einfällt?
Gruß
Rüdiger
Hallo
Aber, was ich vielleicht noch nicht deutlich genug gemacht habe: Teile der Internetseite sollen nur vorübergehend geschützt werden, es handelt sich um eine temporäre Lösung. Normalerweise sind diese Teile ebenso frei zugänglich.
Deshalb möchte ich jetzt nichts an der Ordnerstruktur ändern und frage nochmal, ob jemandem vielleicht eine Lösung einfällt?
also, wieso machst Du nicht einfach ein, sagen wir zweites hauptverzeichniss(unterordner) wo dann all diese unterordner drinnen sind, die du teilweise schützen willst?
Dann hättest du das problem nicht mit der index.html im hauptverzeichniss...
MfG
Hi,
Ich habe einen Teil meiner Webseite per .htaccess zugriffsgeschützt.
Also erst mal einen kompletten Zugriffsschutz ueber das Wurzelverzeichnis druebergebuegelt?
Einige Seiten sollen aber noch abrufbar sein. Diese habe ich jeweils so festgelegt:
<Files datei.html>
order deny,allow
allow from all
satisfy any
</Files>Zu diesen freigegebenen Seiten zählt auch die index.html
Einziges Problem ist nun aber, dass bei Aufruf der Internetseite http://www.dieinternetseite.de der Zugriff nicht erlaubt wird.
Das ist ja auch nach wie vor ein Zugriff auf das Wurzelverzeichnis.
Mit http://www.dieinternetseite.de/index.html funktioniert es einwandfrei, da ja die index.html u.a. freigegeben ist.
Ja, das ist ein Zugriff auf die spezielle Datei.
Bei der internen Suche nach zur DirectoryIndex-Einstellung passenden Dateien wird aber die Files-Direktive wohl nicht ausgewertet.
Wie kann ich das lösen?
Du koenntest versuchen, die Auswahl der Files-Direktive zu negieren - und dann nur dort explizit den Passwortschutz unterbringen, das Verzeichnis an sich also ungeschuetzt lassen.
Ob es auch funktioniert, zuerst mittels einer Files-/FilesMatch-Direktive _alle_ Dateien (*) mit einem Passwortschutz zu versehen, und anschliessend mit einer weiteren Files-Direktive, wie du sie oben bereits beschrieben hattest, das fuer spezielle Dateien wieder aufzuheben, kann ich dir gerade nicht sagen - might be worth a try ...
MfG ChrisB