Andreas Korthaus: Datenstruktur-Problem / Performance vs. saubere Struktur?

Beitrag lesen

Hi Michael!

für die Speicherung der Daten existieren andere Anforderungen als für die Visualisierung der Daten in einem Web-Browser. Könnten alle gängigen Web-Browser XML problemlos direkt anzeigen, dann wäre Deine Frage sehr viel berechtigter.

Trotzdem finde ich gerade bei der Speicherung weniger die Porttierbarkeit wichtig, sondern eher das schnelle schreib und Lesezugriffe möglich sind. Es sollte kein problem sein eine Export-Funktion zu implementieren die die Daten aus eienr relationalen Datenbank in XML übersetzt. Aber vielleicht geht das parsen von XML ja am schnellsten, wie gesagt fehlt mir da die Erfahrung.

Da sie es anscheinend nicht können, lauten die Alternativen, entweder dynamisch zwischen der internen und der externen Darstellung zu konvertieren oder zwei Instanzen statisch vorzuhalten (also quasi einen Cache zu verwenden) und dafür aber sämtliche Eingriffe simultan in beiden Strukturen durchführen zu müssen (oder beide Datenbestände versehentlich auseinander laufen zu lassen, was noch schlimmer wäre).

Es gäbe ja auch noch die Möglichkeit die Daten per Apache Modul(weiß nicht so genau welches) per XSLT zu transformieren, naja, aber da hat sich CK sicher mehr mit beschäftigt als ich.
Aber wieviel wird denn hier pro Tag geschrieben? ca. 500 KB? 500 KB an eine Datei anzufügen, und das ganze noch zu komprimieren, wäre das denn so ein Aufwand? Im Gegensatz zum - keine Ahnung - vielleicht 10 fachen Aufwand zur Laufzeit durch PERL? Das war mein Gedanke, und ich kann mir denken dass das schon seinen Grund hat, nur so 100%ig bin ich noch nicht da hintergestiegen ;-)

Grüße
Andreas