Hallo Rolf,
äh wie? Du schreibst die Daten selbst mit PHP?
Nein, ich schreibe sie nicht selber. Ich erhalte eine fertige CSV-Datei, die ich in php einlese. Sie liegen dann eben nur bereits in einem array vor, genauer gesagt, in einem assoziativem Array.
Array
(
[0] => Array
(
[0] => Feld 1
[1] => Feld 2
[2] => Feld 3
[3] => Feld 4
)
[1] => Array
(
[0] => Feld 1
[1] => Feld 2
[2] => Feld 3
[3] => Feld 4
)
usw.
)
Aber warum, zum grundgütigen Geier, dann die Umstände? Dann kannst Du doch auch die Duplikate bei feld2/feld3 eliminieren, bevor Du die CSV Datei schreibst.
Und ab hier trage ich in die DB ein, nämlich in temp_table.
Das ist natürlich nicht ganz einfach, und der Algorithmus hängt auch davon ab, ob es außer Duplikaten auch drei oder mehr Sätze mit gleichen Werten für feld2/feld3 geben kann.
Klar, sowas kommt (leider) vor.
Ich eliminiere jetzt die wirklich gleichen Zeilen in der temp_table so:
INSERT INTO TABLE_temp2
SELECT DISTINCT * FROM TABLE_temp;
DELETE FROM TABLE_temp;
INSERT INTO TABLE_temp
SELECT * FROM TABLE_temp2
DELETE FROM TABLE_temp2;
Ein unnötiger Schritt dabei, ich weiß. ich könnte auch von der TABLE2 in die real_table kopieren.
Aber wenn ich Dich richtig verstehe, würdest Du inzwischen alles über php machen?
Pit