Der Martin: Systemkollaps

Beitrag lesen

Hallo Tom,

[...] bis zu einer bislang unbestimmten Anzahl zu prüfender Files. danach wird das System langsamer als vorher.
Ich gebe da dem verwendeten Filesystem (FAT32) die Schuld, da die gelöschten TMP-Files (zumindest deren namen) sich ja in Wirklichkeit noch in der Chain of Files befinden und es im Directory immer mehr werden.

das ist so nicht ganz richtig. Die FAT-Dateisysteme (egal ob FAT12, FAT16 oder FAT32) verwenden Verzeichniseinträge, die durch das Löschen von Dateien frei geworden sind, beim Anlegen des nächsten Eintrags wieder, so dass die Gesamtlänge (=Anzahl der Sektoren) eines Verzeichnisses gegen einen bestimmten, annähernd konstanten Wert geht, wenn ebensoviele Dateien gelöscht wie neu angelegt werden.
Allerdings wird die für das Verzeichnis reservierte Clusterkette im normalen Betrieb nie wieder verkürzt, selbst wenn von 2000 Dateien irgendwann z.B. 1700 wieder gelöscht werden. In diesem Fall kommt deine Aussage zum Tragen, dass nur ein Defragmentieren oder ein Umkopieren des Verzeichnisses hilft.

Den passenen File zu finden (wenn schon 10.000 in der Kette stehen) wird also immer schwieriger.

Das hängt bei FATxx linear von der Länge des Verzeichnisses (größte Anzahl Einträge, die es je hatte) ab, weil FAT-Verzeichnisse unsortiert angelegt werden. Die scheinbare Sortierung übernimmt höchstens die Shell, also der Explorer, beim Anzeigen. Beim Öffnen einer Datei muss das Verzeichnis also linear durchsucht werden.

Schönes Wochenende noch,
 Martin

--
Wenn Zeit das Kostbarste ist, was wir haben, dann ist Zeitverschwendung die größte aller Verschwendungen.
  (Benjamin Franklin, amerikanischer Tüftler und Politiker)