Hi,
Die Frage ist jetzt, wie man diese Daten am performantesten mit PHP parsen kann, da es sich durchaus um einige 1000 Datensätze handeln kann.
wie regelmäßig findet die Synchronisation statt? Wenn es sich um große Datenmassen handelt macht das nur Sinn, wenn es sich z.B. um einen täglichen oder manuellen Abgleich handelt. Dabei ist die Performance unerheblich - es kommt nicht auf Zeit an.
Klaus hatte für PERL folgendes vorgeschlagen:
Auf CPAN (http://www.cpan.org/) findest Du das Modul Config::IniFiles, welches AFAIK exakt leisten kann, was Du brauchst.
- Übertragung direkt als String in einer POST-Variable
- Übertragung als multipart/form-data, also als "Datei-Upload".
1. ist zu bevorzugen, weil bei 2. ein erheblicher semantischer und datenbehafteter Overhead stattfindet. Es ist also "mehr und komplizierter", ohne Dir einen direkten Vorteil zu bieten.
Beim ersten Ansatz müßte ich erst bei \n splitten, was nicht unbedingt optimal sein sollte,
Ist der Arbeitsspeicher sooo knapp, dass ein paar Kilobyte Daten nicht auch zwei mal drin stehen können? :-)
Hat vielleicht jemand ne Idee wie man die Performance des Parsens noch verbessern könnte?
Wie gesagt, ich halte das nicht für relevant. Natürlich darf man nicht sinnfrei Ressourcen verschwenden; aber einen erheblichen Aufwand zu treiben, um ein paar hundertstel Sekunden zu sparen, obwohl das ganze in Gottfrieds Namen auch eine Minute dauern kann, ist einfach vergeudete Liebesmüh. Wenn es sich um instantan getriggerte Aktionen handelt ("wenn auf Server A etwas passiert, dann teile das sofort Server B mit"), sieht die Sache natürlich anders aus - allerdings sollte dann in erster Linie die Datenmenge auf ein Minimum reduziert werden, sofern das möglich ist.
Cheatah