ich möchte eine sehr grosse CSV Datei in eine MYSQL Datenbank einspielen
bearbeitet von
Wenn ich große Dateien in PHP verarbeite, mache ich das aufgrund der Limitierungen und auch um Rückmeldung während des Prozesses zu erhalten in [PHP CLI](https://www.php.net/manual/de/features.commandline.differences.php). Um mögliche memory Probleme zu vermeiden die Datei am besten [zeilenweise einlesen](https://thisinterestsme.com/read-large-files-php/).
Was Inserts/Updates betrifft verwende ich wenn nötig [mysqli_multi_query](https://www.php.net/manual/de/mysqli.multi-query.php). Zum Beispiel Stapel von 100 oder auch mehr Datensätzen. Das kann den Import erheblich beschleunigen. Sollte der MySQL Server entfernt sein, könnte noch [MYSQLI_CLIENT_COMPRESS](https://www.php.net/manual/de/mysqli.real-connect.php) interessant sein.
Dedlfix' Hinweis auf die MySQL Kommandozeilen-Tools klingt ebenfalls sehr vielversprechend. Habe damit persönlich (außer etwas probieren) wenig Erfahrung, da ich während des Imports die Daten meist noch weiter aufbereiten und/oder abgleichen möchte.
ich möchte eine sehr grosse CSV Datei in eine MYSQL Datenbank einspielen
bearbeitet von
Wenn ich große Dateien in PHP verarbeite, mache ich das aufgrund der Limitierungen und auch um Rückmeldung während des Prozesses zu erhalten in [PHP CLI](https://www.php.net/manual/de/features.commandline.differences.php). Um mögliche memory Probleme zu vermeiden die Datei am besten [zeilenweise einlesen](https://thisinterestsme.com/read-large-files-php/).
Was Inserts/Updates betrifft verwende ich wenn nötig [mysqli_multi_query](https://www.php.net/manual/de/mysqli.multi-query.php). Zum Beispiel Stapel von 100 oder auch mehr Datensätzen. Das kann den Import erheblich beschleunigen. Wenn der MySQL Server remote ist, könnte noch [MYSQLI_CLIENT_COMPRESS](https://www.php.net/manual/de/mysqli.real-connect.php) interessant sein.
Dedlfix' Hinweis auf die MySQL Kommandozeilen-Tools klingt ebenfalls sehr vielversprechend. Habe damit persönlich (außer etwas probieren) wenig Erfahrung, da ich während des Imports die Daten meist noch weiter aufbereiten und/oder abgleichen möchte.
ich möchte eine sehr grosse CSV Datei in eine MYSQL Datenbank einspielen
bearbeitet von
Wenn ich große Dateien in PHP verarbeite, mache ich das aufgrund der Limitierungen und auch um Rückmeldung während des Prozesses zu erhalten in [PHP CLI](https://www.php.net/manual/de/features.commandline.differences.php). Um mögliche memory Probleme zu vermeiden die Datei am besten [zeilenweise einlesen](https://thisinterestsme.com/read-large-files-php/).
Was Inserts/Updates betrifft verwende ich wenn nötig [mysqli_multi_query](https://www.php.net/manual/de/mysqli.multi-query.php). Zum Beispiel Stapel von 100 oder auch mehr Datensätzen. Das kann den Import erheblich beschleunigen.
Dedlfix' Hinweis auf die MySQL Kommandozeilen-Tools klingt ebenfalls sehr vielversprechend. Habe damit persönlich (außer etwas probieren) wenig Erfahrung, da ich während des Imports die Daten meist noch weiter aufbereiten und/oder abgleichen möchte.
ich möchte eine sehr grosse CSV Datei in eine MYSQL Datenbank einspielen
bearbeitet von
Wenn ich große Dateien in PHP verarbeite, mache ich das aufgrund der Limitierungen und auch um Rückmeldung während des Prozesses zu erhalten in [PHP CLI](https://www.php.net/manual/de/features.commandline.differences.php). Um mögliche memory Probleme zu vermeiden die Datei am besten [zeilenweise einlesen](https://thisinterestsme.com/read-large-files-php/).
Was Inserts/Updates betrifft verwende ich wenn nötig [mysqli_multi_query](https://www.php.net/manual/de/mysqli.multi-query.php). Z.b. alle 100 oder auch mehr Datensätze einfügen. Das kann den Import erheblich beschleunigen.
Dedlfix' Hinweis auf die MySQL Kommandozeilen-Tools klingt ebenfalls sehr vielversprechend. Habe damit persönlich (außer etwas probieren) wenig Erfahrung, da ich während des Imports die Daten meist noch weiter aufbereiten und/oder abgleichen möchte.
ich möchte eine sehr grosse CSV Datei in eine MYSQL Datenbank einspielen
bearbeitet von
Wenn ich große Dateien in PHP verarbeite, mache ich das aufgrund der Limitierungen und auch um Rückmeldung während des Prozesses zu erhalten in [PHP CLI](https://www.php.net/manual/de/features.commandline.differences.php). Um mögliche memory Probleme zu vermeiden die Datei am besten [zeilenweise einlesen](https://thisinterestsme.com/read-large-files-php/).
Was Inserts/Updates betrifft verwende ich wenn nötig [mysqli_multi_query](https://www.php.net/manual/de/mysqli.multi-query.php). Z.b. alle 100 oder auch mehr Datensätze einfügen. Das kann den Import erheblich beschleunigen.
Dedlfix' Hinweis auf die MySql Kommandozeilen-Tools klingt ebenfalls sehr vielversprechend. Habe damit persönlich (außer etwas probieren) wenig Erfahrung, da ich während des Imports die Daten meist noch weiter aufbereiten und/oder abgleichen möchte.
ich möchte eine sehr grosse CSV Datei in eine MYSQL Datenbank einspielen
bearbeitet von
Wenn ich große Dateien in PHP verarbeite, mache ich das aufgrund der Limitierungen und auch um Rückmeldung während des Prozesses zu erhalten in [PHP CLI](https://www.php.net/manual/de/features.commandline.differences.php). Um mögliche memory Probleme zu vermeiden die Datei am besten [zeilenweise einlesen](https://thisinterestsme.com/read-large-files-php/).
Was Inserts/Updates betrifft verwende ich wenn nötig [mysqli_multi_query](https://www.php.net/manual/de/mysqli.multi-query.php). Z.b. alle 100 oder auch mehr Datensätze einfügen. Das kann den Import erheblich beschleunigen.
Dedlfix' Hinweis auf die MySql-Kommandozeile klingt ebenfalls sehr vielversprechend. Habe damit persönlich (außer etwas probieren) wenig Erfahrung, da ich während des Imports die Daten meist noch weiter aufbereiten und/oder abgleichen möchte.
ich möchte eine sehr grosse CSV Datei in eine MYSQL Datenbank einspielen
bearbeitet von
Wenn ich große Dateien in PHP verarbeite, mache ich das aufgrund der Limitierungen und auch um Rückmeldung während des Prozesses zu erhalten in [PHP CLI](https://www.php.net/manual/de/features.commandline.differences.php). Um mögliche memory Probleme zu vermeiden die Datei am besten [zeilenweise einlesen](https://thisinterestsme.com/read-large-files-php/).
Was Inserts/Update betrifft verwende ich wenn nötig [mysqli_multi_query](https://www.php.net/manual/de/mysqli.multi-query.php). Z.b. alle 100 oder auch mehr Datensätze einfügen. Das kann den Import erheblich beschleunigen.
Dedlfix' Hinweis auf die MySql-Kommandozeile klingt ebenfalls sehr vielversprechend. Habe damit persönlich (außer etwas probieren) wenig Erfahrung, da ich während des Imports die Daten meist noch weiter aufbereiten und/oder abgleichen möchte.
ich möchte eine sehr grosse CSV Datei in eine MYSQL Datenbank einspielen
bearbeitet von
Wenn ich große Dateien in PHP verarbeite, mache ich das aufgrund der Limitierungen und auch um Rückmeldung während des Prozesses zu erhalten in [PHP CLI](https://www.php.net/manual/de/features.commandline.differences.php). Um mögliche memory Probleme zu vermeiden die Datei am besten [zeilenweise einlesen](https://thisinterestsme.com/read-large-files-php/).
Was Inserts/Update betrifft verwende ich wenn nötig mysqli_multi_query. Z.b. alle 100 oder auch mehr Datensätze einfügen. Das kann den Import erheblich beschleunigen.
Dedlfix Hinweis auf die MySql-Kommandozeile klingt ebenfalls sehr vielversprechend. Habe damit persönlich (außer etwas probieren) wenig Erfahrung, da ich während des Imports die Daten meist noch weiter aufbereiten und/oder abgleichen möchte.