Der Martin: Rechteverwaltung, Zugang zur Test-DB offenlegen

Beitrag lesen

Hallo,

300.000 Files in einem Ordner? Unter Windows eine Katastrophe, wenn ich mich recht erinnere.

Hunderttausende von Dateien in einem Verzeichnis habe ich selbst noch nicht erlebt. Aber Windows wird AFAIR schon bei wenigen tausend Einträgen spürbar zäh bei Dateioperationen. Immerhin ergeben 300k Einträge schon ein Datenvolumen von mindestens 10MB für das Verzeichnis an sich, eher mehr (je nach durchschnittlicher Länge der Dateinamen). Und da die Verzeichniseinträge nicht sortiert sind, muss bei jedem Zugriff auf eine dieser Dateien das ganze Verzeichnis sequentiell durchsucht werden.
Natürlich cacht Windows einen Großteil dieser Informationen im RAM; die Sucherei bleibt trotzdem.

Unix nicht?

Doch, aber nicht ganz so schlimm, und es hängt wahrscheinlich stark vom verwendeten Filesystem ab. Mit ext3 entsteht beim Zugriff auf eine aus Tausenden von Dateien auch schon eine kurze, aber merkliche Verzögerung, Ich vermute aber, dass andere Dateisysteme damit effizienter umgehen können, z.B. weil sie die Dateieinträge automatisch sortieren oder indizieren.

Wobei ... sorry, das war jetzt eine Einschätzung für Linux. Ob ein echtes Unix da vielleicht besser abschneidet, kann ich nicht sagen.

So long,
 Martin

--
Nothing travels faster than the speed of light with the possible exception of bad news, which obeys its own special laws.
- Douglas Adams, The Hitchhiker's Guide To The Galaxy