Hallo!
Das ist jetzt wesentlich schneller reicht aber trotzdem nicht aus wenn ich ca. 8000 Datensätze hab, bekomme ich ein Timeout Fehler im Browser.
Wenn es über Webinterface sein muss, dann würde ich es häppchenweise pro Seitenaufruf machen. Einfach pro Seitenaufruf ein paar Hundert (was sich halt als locker machbar erweist) Datensätze kopieren und dann per header(Location: ...) oder per meta refresh die Seite so lange sich selber aufrufen lassen bis alle Datensätze durch sind.
Über eine Sessionverwaltung musst du dir halt merken welcher der aktuelle Datensatz ist, mit dem fortgesetzt werden soll.
Der Nachteil dabei ist aber, dass du das ganze in verschiedenen Transaktionen abwickelst und nicht in einer einzigen. Das kommt jetzt auf denien Anwendungsfall an ob das praktikabel ist oder nicht.
mfg
frafu