OT: SCSI-Grenzen
Thomas Schmieder
- webserver
Hallo,
kann mir jemand sagen, was die maximale Festplattengröße beim Adaptec 2940U2W ist oder eine Seite mit technischen Daten nennen?
Danke
Tom
Hallo,
kann mir jemand sagen, was die maximale Festplattengröße beim Adaptec 2940U2W ist oder eine Seite mit technischen Daten nennen?
So auf die Schnelle... http://www.adaptec.com/worldwide/support/techspecs.html?sess=no&prodkey=AHA-2940U2W&cat=%2FProduct%2FAHA-2940U2W
Grüße
Klaus
Hallo Klaus,
danke für die Info. Im ersten Moment habe ich geflucht, weil ich auf der Seite gestern bestimmt dreimal war, immer meinen Vater im Nacken, der drängelt, weil Internet über die telekom eben so teuer ist. <zynismus>Irgendwie wird er da schon Recht haben?</zynismus>
Dadurch habe ich die Diskangaben ganz unten auf der Seite immer überlesen.
Jedenfalls hatte er es gewchafft, eine 18GB Platte mit zwei Partitionen zu 10,??GB und knapp 8,0 GB voll auszunutzen und war sich ganz sicher, die auch schon mal am Stück formatiert zu haben. Nun wollte er für Bildverarbeitung eine größere Platte von ca. 100GB nachrüsten. Dadurch bin ich nur drauf gestoßen, weil ich diese Grenze von 8GByte im Kopf hatte. (Mein Novell-Server leidet nämlcih daran und hat langsam Platznot. Es sind aber schon 4 9GB Platten drin)
Er hat das aber mit DiskMagic (oder so ähnlich) gemacht. Funktioniert bisher auch fehlerfrei. Das hieße dann doch aber, dass die Grenze im Adaptec-Controller nur softwarebedingt wäre und man sie sprengen kann, zumindest unter Windows. Er hat FAT32 drauf.
Wäre nun toll, wenn man da bei Linux auch irgendwie weiter käme. Ich habe von den Controllern nämlich auch noch drei Stück.
Ist zwar nicht unbedingt ein SelfHTML-Thema, aber hier gibt es ja einige Serverspezialisten.
Mein Anliegen daran ist nämlich, wie ich es hinbekommen kann, für unseren neuen Webserver unter Linux Festplatten möglichst hotswappable zu bekommen, damit ich die Datensicherung per Platte machen kann und im Crashfall nur umstecken muss. (mkboot ...)
Allerdings sind mir 8GB eben zu klein. 100GB sollten es schon werden.
@all Serverspecialists:
Welche Stategie würdet Ihr mir aus Eurer Erfahrung für einen "sicheren Betrieb" sonst vorschlagen. Spiegelung macht ja eigentlich keinen Sinn, wenn man an Hacker- und Virenangriffe denkt.
Das liebste wäre mir ein reduntanter Server, der von sich aus alle Stunde einen Abgleich durchführt und sich dann selbsttätig wieder vom Netz trennt.
Würde mich über geeignete Links zu den Spezialforen freuen. Ich habe leider noch gar keine Ahnung, wo man da qualifizierte Info bekommen kann.
Danke für Eure Mühe
Danke nochmals an Klaus
Tom
Moin!
Mein Anliegen daran ist nämlich, wie ich es hinbekommen kann, für unseren neuen Webserver unter Linux Festplatten möglichst hotswappable zu bekommen, damit ich die Datensicherung per Platte machen kann und im Crashfall nur umstecken muss. (mkboot ...)
Ähm, echten Hotswap dürftest du sehr wahrscheinlich nicht wirklich hinkriegen - ich jedenfalls würde den Server vorher runter und hinterher wieder hochfahren. Andernfalls kriegst du mit fast an Sicherheit grenzender Wahrscheinlichkeit Probleme und Inkonsistenzen mit dem Dateisystem. Oder du hast einen entsprechenden Controller, der hotswappable RAID kann - dann kannst du defekte Platten auch im laufenden Betrieb auswechseln (was aber dennoch auf die Performance Auswirkungen hat, denn die neue Platte wird dann vom RAID-Controller erst einmal für längere Zeit mit den Redundanzdaten gefüllt werden müssen - sonst hast du beim nächsten Plattenausfall gar keine Daten mehr).
@all Serverspecialists:
Welche Stategie würdet Ihr mir aus Eurer Erfahrung für einen "sicheren Betrieb" sonst vorschlagen. Spiegelung macht ja eigentlich keinen Sinn, wenn man an Hacker- und Virenangriffe denkt.
Doch, das macht Sinn, wenn man an Plattenausfälle denkt. Allerdings: Spiegelung ersetzt kein Backup, sie macht unter Umständen nur dessen erneute Einspielung überflüssig, weil die gespiegelte Platte nicht kaputt ist und auch das Dateisystem heil geblieben ist.
Das liebste wäre mir ein reduntanter Server, der von sich aus alle Stunde einen Abgleich durchführt und sich dann selbsttätig wieder vom Netz trennt.
Das ist immer noch kein Backup. Wenn nämlich auf der "heißen" Platte irgendwas schief läuft, dann wird diese defekte Kopie beim nächsten Abgleich unter Umständen einfach mitkopiert - und du hast zwei defekte Abbilder der Platte, aber nichts heiles mehr.
Wenn du Datensicherheit willst, hast du mindestens zwei Aufgaben:
1. Sicherstellung der Datenintegrität. Schutz vor Plattenausfällen und Lesefehlern bietet ein RAID oder Plattenspiegelung.
2. Schutz vor Datenverlust durch Erstellung eines Backups. Das ist ziemlich aufwendig und/oder teuer, weil die riesige Festplatten heute kaum auf ein von Privatpersonen bezahlbares Medium gespeichert werden können (Backup auf CD brennen? Haha.... Selbst DVDs sind schon zu klein geworden), und Bandlaufwerke sind wahnsinnig teuer und aufgrund der Datenmenge auch wahnsinnig langsam - aber für ernsthafte Backups einfach unumgänglich.
Methode 1 ist kein Backup. Methode 2 ersetzt Methode 1 durchaus, ist aber zeitaufwendig, wenn es denn mal passiert ist. Man kann ohne alles leben (und geht ein Risiko ein), man kann Methode 1 anwenden und sich so vor Plattenfehlern schützen (was aber immer noch ein Risiko beläßt), oder man treibt den hohen Aufwand und erstellt regelmäßig vollständige und incrementelle Backups.
Ich persönlich mach' gar nichts. So rasend wichtig sind meine Daten nicht - außerdem hätte ich keinen Platz, um nochmal 120 GB Plattenplatz irgendwo im Server unterzubringen. Und ein Backup steht jenseits von jeglicher Realisierbarkeit. Probleme gab's bislang jedenfalls nicht.
- Sven Rautenberg
Hallöle Sven,
Ich persönlich mach' gar nichts. So rasend wichtig sind meine Daten nicht - außerdem hätte ich keinen Platz, um nochmal 120 GB Plattenplatz irgendwo im Server unterzubringen. Und ein Backup steht jenseits von jeglicher Realisierbarkeit. Probleme gab's bislang jedenfalls nicht.
Ich mach derzeit eine Vollkopie der Festplatte (also der Datenpartition) am Tag und ein mkboot dazu. Das geht relativ flott, hat aber eben den von Dir schon erwähnten Nachteil des Server-Runterfahrens, um dann das Backup rauszunehmen und die nächte Kopierplatte von 3en reinzuschieben. Das heißt, ich habe vier gleiche IDE-Platten. Eine ist derzeit fest eingebaut und drei sind im Wechselrahmen. Das liegt aber nur an unseren dämlichen 19"-Server-Gehäusen. Die haben nur zwei 5,25"-Schächte; einer ist mit CD-ROM belegt.
Die haben aber nur 40GB und ich brauche demnächst mehr Platz.
Nun bin ich immer noch am Doktern wie's günstig aber trotzdem sicher geht. Denn Millionär bin ich leider nicht.
Vielleicht kommt ja noch einer mit _dem_ genialen Tipp. *hoff*
Grüße aus http://www.braunschweig.de
Tom
Moin!
kann mir jemand sagen, was die maximale Festplattengröße beim Adaptec 2940U2W ist oder eine Seite mit technischen Daten nennen?
Ich bezweifle, dass es ein Maximum gibt. SCSI arbeitet, was die Adressierung der Sektoren auf der Festplatte angeht, zum Glück schon immer wesentlich anders, als IDE: Es wird irgendein Sektor mit der Nummer 1 bezeichnet, und von dort an einfach hochgezählt. Ich weiß nicht, wie breit die Binärzahl ist, die zur Sektoradressierung benutzt wird, aber 64 Bit dürften es mit Sicherheit sein, was ich mal (ohne recherchiert zu haben) mit mehreren Terabyte übersetzen würde.
- Sven Rautenberg
Hallo Sven,
das ist leider das Problem. Die älteren Controller haben bei ca. 8GB eine Grenze. Du kannst also keine Festplatten größer 8GB damit kontrollieren. Ich habe aber selbst bei Adaptec keine Aussage darüber finden können, welcher nun welche Plattengröße verkraftet und die schlauen Tabellenn im Netz sind mir auch irgendwie abhanden gekommen.
LG
Tom
Hallo Sven,
das ist leider das Problem. Die älteren Controller haben bei ca. 8GB eine Grenze. Du kannst also keine Festplatten größer 8GB damit kontrollieren. Ich habe aber selbst bei Adaptec keine Aussage darüber finden können, welcher nun welche Plattengröße verkraftet und die schlauen Tabellenn im Netz sind mir auch irgendwie abhanden gekommen.
Bist du dir wirklich 100% sicher, dass der Controller diese Grenze bildet? Oder könnte es nicht doch eher mit dem Betriebssystem zusammenhängen, welches nur bootet, wenn die Bootdaten unterhalb der berühmten 1024-Zylinder-Grenze liegen (auch SCSI muß, obwohl ansonsten davon unbeeindruckt, diese HCS-Angaben z.B. in die Partitionstabelle schreiben).
Ich hab' mit Google lange gesucht - ein Ansatzpunkt ist z.B. das Large-Disk-Howto für Linux, welches sich intensiv mit allen möglichen Grenzfällen auseinandersetzt - aber immer nur auf IDE-Seite, nie auf SCSI-Seite, weil das System ganz grundsätzlich eben _keine_ Grenze setzt
Ich denke auch, ein U2W-Controller sollte hinreichend modern sein, dass er große Gigabyte-Laufwerke unterstützt. Das Datenblatt erwähnt jedenfalls keine Einschränkung, Google findet nichts entsprechendes - ich gehen davon aus, dass es derartige Beschränkungen bei SCSI einfach nicht gibt.
Ich habe es persönlich allerdings schon erlebt, dass mein Linux-Server zweimal mit neuen Festplatten (allerdings IDE) nicht umgehen konnte. Das BIOS ist dabei kein Problem gewesen (gebootet wird von einer 8GB-Platte), aber bei der Erweiterung um eine 40GB-Platte und später um eine 80GB-Platte mußte ich beide Male den Kernel updaten, damit er die neue Größe überhaupt korrekt erkennt. Da ich BIOS-Einflüsse absolut ausschließen kann (das ist immer noch dasselbe, und wird außerdem von Linux außer zum Booten absolut nicht benutzt), ist der Grund für das Versagen offenbar im Kernel selbst zu suchen. Natürlich ist zwischen IDE und SCSI grundsätzlich ein Unterschied - aber da auch IDE mittlerweile LBA-Zugriff gelernt hat, unterscheidet sich das Zugriffsprinzip doch nicht mehr so deutlich. Linux hatte offenbar nur Probleme mit großen Blockzahlen (Im Large-Disk-HOWTO dürfte der Grund drinstehen). Nichts, was man mit einem Update nicht wieder beheben könnte.
- Sven Rautenberg