Halihallo Andreas
Habe übrigens zufällig mal wieder eine "alte" CT (18/02 S.174) rausgekramt, da gar es nämliche einige interessante Artikel bzgl. Server-Performance. Du erinnerst Dich sicher noch an unseren Test diesbezüglich?
Ach, ja, das nenne ich ein schönes Wochenende :-)
Jedenfalls war da ein Vergleichstest zw. einem Apple xServe (mit G4(7450), 1Ghz prozessor) gegen Dell (x86, Pentium III 1,4 Ghz, SCSI) beide mit 256 MB DDRRAM, lagen beide um 5000 EUR.
Apache konnte bei beiden ca. 1300 Seiten pro Sekunde ausliefern(html),
Ja, wobei wir ja insbesondere mod_perl testen wollten.
Bei CGI Scripten lag der Dell noch bei 200/s, bei PHP/MySQL 80/s, bei SSL 65/s(wobei sie das irgendwie mit "keepalive" auf ca. 400 steigern konnten, aber das habe ich nicht richtig verstanden - schade eigentlich, könnte ich gut gebrauchen ;-)).
Hm. Ja, wir kamen ja leider nur auf 13/s, Matti hat's jedoch auch auf diese Grössenordnung geschafft.
Worauf ich aber hinaus will, das sind keine geteilten/gehosteten Server, sondern eigene relativ aktuelle und hochwertige Modelle. bei den Servern wie wir das versucht hatten, die waren zum einen garantiert erheblich biliger und langsamer,
Die Technik musste den Server, wo ich gehost werde, wohl wegen mir mit RAM auf 1GB aufrüsten, 512MB Std, 733MHz AMD (ich glaube Dual?). Naja, die schnellsten sind's bestimmt nicht...
außerdem teiltn wir die Performance mit alen anderen Kunden auf dem Server, also waren die Ergebnisse realistisch.
Stimmt. Wobei ich Samstag Nacht nicht grad relevant für Stat. Tests halte :-)
Ich verstehe zwar nicht, warum Server mit so schwachen Prozessoren so teuer sein können, ich denke man bekommt das schon erheblich schneller hin, z.B. mit 2 Xeon oder Athlon MP, oder noch besser man wartet auf den 64Bit von AMD.
s'ist ja nicht die Prozessorleistung, von der was erwartet wird (klar, auch), aber bei Servern sind ja andere Dinge zentraler.
Wenn man das hat ist man schon recht flott denke ich, sonst hilft nur noch Load-balancing oder Clustering,
Ja, Load-Balancing wird dann interessant, wenn man 2000/s aushalten muss... Dann stellt man 10 redundant ausgelegte Rechner hinter ein load-balancer, der eine virtuelle IP hat und die Requests gleichmässig auf die 10 Rechner verteilt und fertig...
aber davon habe ich noch weniger Ahnung und das wird dann immer teuerer. Ich weiß auch nicht ob man lieber einen professionellen Server von IBM oder Compaq einsetzen sollte, vermutlich sind die nicht so performant, aber dafür ausfallsicher und haben guten Support. Aber dafür könnte man ja zur Sicherheit einen 2. "backup-Server" verwenden, der zur Not einspringt, möglichst automatisch und ein einem anderen LAN, z.B. in einem Rechnezentrum bei einem Provider, nur wie das funktionieren könnte weiß ich nicht ;-)
Ich denke das größte Problem ist die Anbindung, denn das ist richtig teuer, denke das wird billiger wenn man den eigenen Server in irgendeinem gut angebundenen Rechenzentrum "housen" läßt.
Weisst du, was in der Schweiz eine schnelle Inet-Anbindung kostet? - Musst dir mal die Webspace-Preise in der Schweiz ansehen, die Anbindungskosten werden auf den Kunden abgewälzt... Da ist es wesentlich sinnvoller in der EU eine Server housen zu lassen, da muss ich dir recht geben.
Die 2. Sache ist die mit CGI gegen Apache, wie Du siehst kannst Du Deine Performance durch eine reine Apache-Lösung nochmal fast ver-sieben-fachen! Und wenn das nicht reicht, ich denke auch das performanteste wird sein sich einen eigenen schlanken "HTTP-Server" in C++ zu programmieren, das dürfte nochmal erheblich schneller sein, denn Du brauchst den Apache ja eigentlich gar nicht, es geht ja nur ums Loggen.
Ich tendiere auf Letzteres. Da ich nach wie vor nicht ganz davon überzeugt bin, dass ich alles in den Log finden kann, was ich bräuchte (OK, man könnte ein eigenes Apache-Modul programmieren)... Zudem: Auswerten müsste ich dann dennoch alles und das ist ja das performanceverschlingende...
Viele Grüsse und besten Dank für die Infos
Philipp