Klaus Mock: Perl Scripte ausführen, .. aber verhindern, dass diese 100% CPU-Last beko

Beitrag lesen

Hallo,

das Problem leigt daran, .. .dass es Logfiles von ca. 500Mb durchforstet, .. mit optimieren ist da nicht mehr viel, .. hab schon 5 Studnen lang herum probiert und Sekunden gemessen und so weiter.

Das ist sicherlich ein Problem. Aber gerade hier ist auch Optimierung angesagt. Was, wenn Du versuchst, durch Vorarbeiten die Datenmenge zu reduzieren. Ich hab' jetzt zwar keine Ahnung, was beim durchforsten so geschieht, aber Du solltest wirklich versuchen, nicht immer 500MB durchzukramen. Vielleicht hilft es ja auch weiter, wenndas oft geschehen soll, daß Du den Log in eine Datenbank ablegst, um besser suchen zu können.

Wie siehts mit der Speicherauslastung aus? Vielleicht ist die CPU-Last nur ein Teil des Problems.

Und dann mußt Du Dir auch im Klaren sein, daß nicht jedes Problem eine einfache Lösung hat. Wenn 's um große Datenmenge geht, ist es zwar noch möglich, an der Hardware Verbesserungen herbeizuführen, wenn das dann auch nicht geht, dann ist ein Problem halt nicht lösbar. Irgendwo gibt es für alles eine Grenze.

neh, .. Du schaffst es nicht mal mehr per SSH auf den Server zuzugreifen!

Dann ist die Maschine aber ziemlich am Ende. Da hilft Dir ein bißchen CPU-Last-Herumgedrehe auch nichts mehr, befürchte ich.

Das endet dann in endlosen Versuchen, die dann eben doch nur auf Mäusemelken hinauslaufen.

Also entweder massiv bessere Hardware oder die permanent zu durchsuchende Datenmenge reduzieren.

Grüße
  Klaus