Hallo,
Ja, das ist schon richtig, zum ienen Muß der Server der Webseite mit eingebunden werden, und ob man unbedingt den Webserver einer Internetseite selbst betreiben sollte ist fraglich, denn dazu braucht es erheblich mehr als die Hardware und einen SDSL-Zugang!
So kompliziert ist nun auhc wieder nicht, einen Webserver vernünftig aufzusetzen. Außerdem gibt's auch dafür jede Menge Unterstützung;-)
Also meint Ihr man kann das Anfangs gepostete Script nicht mehr beschleunigen?
Ich hab' mal einen schnellen Tets gemacht, und an die 50000 Datensätze auf der mir beschriebenen Weise eingelesen (== 10MB bei meinen vorhandenen Daten). Rein nur Öfnnen und analysieren duaert auf meinem Notebook (P3 800 unter Win2K) ca. 7 Sekunden.
Gut an dem kommst Du wahrscheinlich sowieso nicht vorbei, egal wie Du es anstellst, wozu sich also darüber Gedanken machen.
Naja, eine Idee habe ich schon:
Ich speichere ein Flag zu jedem Datensatz in jeder Tabelle, und zwar ob bereits auf Master eingetragen oder nicht. Meinetwegen 0 heißt "noch nicht gespeichert" und 1 entsprechend.
Naja, ich hatte kurz auch über so etwas nachgedacht, allerdings muß dann gewährleistet sein, daß die zentrale Datenbank nicht inkosistent wird. Mit der Überprüfung auf Existenz kannst DU eigentlich auch ein Fallbacksystem integrieren, das die Daten aus den Filialen im zentralen Datnebestand rekonstruieren kann. Außerdem kannst DU dann gleich mit zwei ID's in den Filialen arbeiten, dann brauchst DU DIr keine GEdanken mehr über die Nummerngeneratoren machen;-)
Grüße
Klaus