suit: url abfangen die zweite

Beitrag lesen

mod_rewrite ist das Stichwort. Ich lese und alle alten urls via Progrämmchen aus der alten DB aus, baue sie in der neuen Form wieder zusammen und pack das ganze in die htaccess. Habs mit einzelnen Datensätzen ausprobiert. Geht hervorragend. Nur weiß ich noch nicht, wie sich das Ganze bei knapp 200 000 DS verhält, wenn die alle in der htaccess auftauchen. Mal sehen.

Darum sagte ich dir ja, dass du dir ggf. das "leite alte urls um" handling von RealURL ansehen sollst - ein .htaccess-File mit 20.000 Datensätzen ist ggf. wesentlich unpraktischer als doch die Datenbank im Fehlerfall zu bemühen.

Wenn ein 404 auftrifft, befragst du die Datenbank und führst einen 301 auf die neue Seite durch - oder eben du nutzt gleich die Built-In-Funktionalität von RealURL, da musst du nur deine bereits bekannten 20.000 Datensätze in eine ggf. andere Struktur umformen und in die nötige Tabelle sein - das dürfte mit einem einzelnen SQL-Statement durchführbar sein.

Bei dieser Dimension irgendwas mit mod_rewrite zu machen ist imho Irrsinn.