Alexander (HH): Fileserver

Beitrag lesen

Moin Moin!

wie stark müsste denn ein Computer sein, um einen Fileserver darauf zu betreiben?

386SX16, 4 MB RAM hat mir als Fileserver mal völlig ausgereicht -- zu Zeiten, als DOS ein Betriebssystem und Windows nur eine grafische Oberfläche war.

Was hast Du vor? Die Dateien eines Haushalts irgendwo zentral ablegen? Dann reicht ein Pentium-100 oder schneller ab 64 MB RAM. Ein Firmennetzwerk für 100 oder 10.000 Leute aufbauen? Dann reden wir über ernsthafte Server in großen Racks.

In beiden Fällen wäre ein RAID zu empfehlen -- Zuhause ein einfaches RAID-1 (Mirror) auf Software-Basis (mdadm & friends), damit ein ausgefallener, nicht mehr beschaffbarer RAID-Controller nicht gleich einen Totalverlust aller Daten bedeutet, im Firmenumfeld typischerweise ein RAID-5 in Hardware, je nach Anforderungen auch mal andere RAID-Level. Dazu ein Backup-System, privat eine externe Festplatte, professionell ein Tape-Roboter.

Ich hätte hier Ubuntu Linux 7.10 Server Edition, könnte aber auch ressourcenschonenderes nehmen.
Es sollte SSH,SAMBA/NFS,(FTP), und evtl. DNS,Mail und für den Eigengebrauch Web können.

DNS und DHCP macht Dein DSL-Router wahrscheinlich zuverlässiger, auf jeden Fall mit weniger Energiebedarf. Web hostest Du besser in einem Rechenzentrum, und wenigstens dem Empfang von Mails auch. Warum willst Du FTP haben? SSH kann auch Dateien übertragen, unter Unixen mit sftp und scp, unter Windows mit WinSCP.

Vielleicht ist Ipcop da sogar geeigneter?

Nein! IPcop ist ausschließlich eine Firewall. Du willst auf der Firewall keine Server laufen lassen. Die Langform der Erklärung findest Du z.B. im deutschen IPcop-Forum und sicherlich auch im Archiv dieses Forums.

Hätte einen PC mit 200+ Via CPU und 32 MB Ram im Ausblick, schätze mal man könnte ihn auf 128 MB erweitern, würde das ausreichen?

Für drei bis vier Privatanwender und ein oder zwei Mini-Webanwendungen sehr wahrscheinlich. Die meisten Via-Systeme kannst Du bis auf 512 MB aufrüsten, manche auch noch weiter, das würde ich auch empfehlen. Viel RAM hilft viel, RAM-Zugriff kostet Nanosekunden, Festplattenzugriff Millisekunden. Daher ist Swapping möglichst zu vermeiden, gerade bei langsamen CPUs und langsamen Chipsätzen.

Würde auch gern mit Gigabit-Geschwindigkeit darauf zugreifen.

Dann sollten Mainboard, Chipsatz und Festplatten auch die entsprechende Geschwindigkeit liefern können. Und genau daran wird es bei den Low-Power-Via-Chips fürchterlich scheitern. Warum meinst Du, Gigabit Ethernet zu benötigen? Ich boote regelmäßig Rechner über ein geswitchtes Fast Ethernet, das ist schnell genug.

Ein paar Zahlen:

Mein alter Home-Server unter Slackware 8 lief sehr lange auf einem Dell Precision Workstation 400 mit zwei Pentium-II 233 MHz, 256 MByte RAM, eine kleine IDE-Platte für Boot, Root und Swap, zwei große IDE-Platten (100 GByte, später 250 GByte) als RAID-1 für Daten.

Davor diente ein Pentium-90 auf einem AT-Board als Server, mit irgendwelchen alten Platten bis 100 GByte.

Aktuell langweilt sich hier ein geerbter HP NetServer E800 unter Slackware 10.2 mit 2x Pentium-III 733 MHz, 2 GByte RAM, zwei 9 GByte-SCSI-Platten als Boot (RAID-1) und Root (RAID-1) sowie Swap, außerdem vier gut belüftete 400 GByte-Platten an zwei unterschiedlichen IDE-Controllern als RAID-5 (1,1 TByte) für Daten.

Der Netserver ist völlig unterfordert, die meiste Zeit ist die Load bei knapp über Null, nur bei gelegentlichen Compiler-Läufen kommt die Maschine mal auf Temperatur. Mails einsammeln, zum Thunderbird schaufeln, und gelegentlich mal nächtliche Downloads größerer Datenmengen lastet die Kiste nicht mal ansatzweise aus, und weil die Kiste nur ein 250W-Netzteil hat (ja, ich hab auch gestaunt), läuft sie jetzt seit 505 Tagen ununterbrochen. Mit einer USV wäre die Uptime deutlich höher. Danke, EON! ;-)

Der Dell ist gerade aus dem wohlverdienten Ruhezustand zurückbeordert worden, um die Vertretung für einen noch nicht gelieferten Server zu spielen, frei nach dem Motto "besser den als gar nichts". Eine größere Web-Anwendung im Larven-Stadium mit Rose::DB::Object, HTML::Template::Compiled bzw. Template::Toolkit, einigen anderen größeren Modulen sowie PostgreSQL 8.2 ist im CGI-Modus gerade noch so zu ertragen, mit Ladezeiten von zwei bis drei Sekunden. FastCGI ist deutlich schneller, beim Entwickeln aber eher hinderlich.

Alexander

--
Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".