Michael Schröpl: Perl Scripte ausführen, .. aber verhindern, dass diese 100% CPU-Last beko

Beitrag lesen

Hi,

1.) Script auf Optimierungspotential hin untersuchen. Das gibt's >in >der Regel immer.
das Problem leigt daran, .. .dass es Logfiles von ca. 500Mb durchforstet, .. mit optimieren ist da nicht mehr viel,

Und ob. Insbesondere was Dein Datenmodell angeht. "divide et impera" meint der Informatiker in mir zu Deinem Szenario.

Wie wäre es mit mehreren kleineren Protokolldateien?
Veraltet Deine (vermutlich) statistische Information, wenn sich der Inhalt der durchsuchten Datei *nicht* mehr ändert? Wenn nicht, dann kannst Du das Ergebnis zu jeder Teil-Datei abspeichern und bei späteren Suchvorgängen nur noch zusammenfassen.
Wirklich durchsuchen mußt Du dann nur noch diejenige Datei, die aktuell wächst.
Das zyklische Zerhacken der Logs geht beispielsweise via cron (alle 10 Minuten: Größe des Logs abfragen, bei Überschreiten dem Verursacher ein Signal senden, daß er auf eine neue Protokolldatei umschalten soll, und *jetzt* die abgeteilte Datei einmalig verarbeiten und das Ergebnis abspeichern).

mfG - Michael