Moin!
Zudem ist zu beachten, dass Fragmentierung den größen von Puffern und Speicher-Caches heutzutage ein viel geringeres Problem darstellt, als zum Beispiel noch zu DOS/Windows 95-Zeiten.
Das verstehe ich nicht ganz. Wenn Magnetpunkte die eigentlich zu einem ganzen Datensatz (Datei) gehöhren , über die Festplattenscheibe verstreut angeordnet sind, dann ändert doch auch ein Puffer nichts daran, dass die "Scheibe" sich öfters drehen und der Lese/Schreibarm seine Position öfters ändern muss. Höchstens man hat die Indizierung am Laufen, die einen Gewissen Bereich vor und hinter aktuellen Zugriffen ausliest. Ich habe die Indizierung bei meinen Rechnern aber ausgeschaltet.
Defragmentierung von Festplatten ist im Prinzip Augenwischerei und Verschwendung von CPU-Zyklen. :)
Es ist Aufgabe der Festplatte, einen angeforderten Datenbereich schnellstmöglich zu lesen und zu liefern.
Defragmentierung von Dateien beschleunigt das aber nur bedingt, denn in Multi-Tasking-Systemen wird ja nie seriell nur eine Datei zur Zeit angefordert, sondern in der Regel parallel mehrere (von Zugriffen auf den Auslagerungsbereich des virtuellen Speichers mal ganz zu schweigen.
Das bedeutet, dass das Zugriffsmuster auf die Datenbereiche ohnehin ziemlich verstreut ist - egal ob dabei nun eine Datei schön am Stück oder eben fragmentiert lagert. Man kann auch mit komplett unfragmentierten Dateien ein Worst-Case-Szenario bilden, in dem die Zugriffsgeschwindigkeit minimal wird. Und genauso kann man für dieses Zugriffsmuster wiederum die optimale Datenanordnung auf der Festplatte herstellen, indem man "Defragmentiert" - in diesem Fall also eher fragmentiert, indem die Dateiblöcke passend wie angefordert hintereinandergelagert würden.
Wobei Du unter Linux sowieso keine Möglichkeit hast, Dein Dateisystem zu defragmentieren.
Oha, das wäre dann eher ein Grund gegen Linux. Kein zuverlässiges Notarztprogramm?
Defragmentierung ist ein Festplattenoptimierungsversuch aus DOS-Zeiten, bedingt durch das schlechte Fragmentierungsverhalten des FAT-Dateisystems.
Wieso muß Linux sowas auch bieten, wenn es von vorne herein besser ist? :)
Gerade unter Linux, dass von Anfang an ein Multiuser- und Multitasking-Betriebssystem war, wurden die besonderen Anforderungen dieses Szenarios mit einbezogen - nicht so wie bei Windows, wo man aus Kompatibilitätsgründen dem DOS erst ein GUI überstülpte, dass dann plötzlich Multitasking machte.
Ich habe das im Netz gefunden:
ext2, ext3 linux
JFS, Journaled Files System, AIX
UFS, Unix File System, SUN
CDRFS, CDROM File System
NFS, Network File System, ursprünglich SUN
DFS, Distributed File System, viele Hersteller
SAMBA, SMB-Fileserver, NTFS (NT, Windows/2000),
Sind das Systeme, aus denen ich wählen kann worauf ich Linux instaliere (Ubunthu)? Oder Laufen verschiedene Systeme gleichzeitig unter Linux.
Linux nutzt problemlos alle möglichen Dateisysteme parallel. Windows nutzt ja auch NTFS und FAT32, FAT16 und FAT12 parallel. :)
Was ich auch noch gelesen habe: Unter Linux kann man mehrere Platten (HDD) als einzelnes Laufwerk einrichten. Also ist eine HDD fast voll, hängt man einfach ne neue dazu. Das stell ich mi praktisch vor.
Wenn es um problemlose Erweiterbarkeit von Festplattenplatz geht, ist für Linux LVM2 empfehlenswert.
Aber auch Windows ab 2000 kann neue Partitionen nicht nur als neuen Laufwerksbuchstaben einbinden, sondern an beliebigen Orten im Dateisystem. Man kann sich also (sicher mit ein wenig Umkopierarbeit) auch auf bereits gut gefüllten Partitionen in Unterverzeichnissen neuen Platz schaffen, ohne die Verzeichnisstruktur komplett umbauen zu müssen.
- Sven Rautenberg
"Love your nation - respect the others."