Nico R.: "Backup-Verwaltung" für DB

Beitrag lesen

Vielen Dank erstmal für eure Erklärungen. Mit der ANYALYZE-Ausgabe kann ich ehrlich gesagt nicht viel anfangen, dazu müsste ich mich wohl tiefer damit beschäftigen. Ich habe aber in jedem Fall in den betreffenden Tabellen, für die Spalten, über die eine WHERE-Abfrage erfolgt, Indexe angelegt.

Da auch Rolf von "Millionen von Rows" schreibt, denke ich das Archivieren würde bei mir derzeit eher in den Bereich Spielerei fallen, denn ich werde selbst in zehn Jahren nicht ansatzweise diese Größenordnung erreichen. Im worst, oder viel mehr best case würden in der am stärksten beanspruchten Tabelle maximal 100.000 rows in einem Jahr entstehen. Da ists am Ende dann wohl besser, alle Daten lückenlos bereit zu halten, statt sie erst aus einem Archiv einzulesen und dann wieder zurück zu archivieren.

Denn während eines Backups darf aus Konsistenzgründen nichts an der Datenbank verändert werden - was für die DB Engine bedeutet, dass sie entweder die DB brutal gegen Updates sperren muss...

Das wäre für mich ehrlich gesagt in Ordnung. Sofern Maria nicht von alleine sperrt, könnte ich das doch mit LOCK TABLES erzwingen, oder? Die Frage ist natürlich, was passiert in dem Fall, dass sich das Backup und ein INSERT/UPDATE wirklich einmal überschneiden. Würde Maria den Schreibvorgang dann noch einmal wiederholen oder gibts eine spezielle Fehlermeldung? Ich werde das morgen mal testen...

Bei einem Backup via SQL-Dump wird es vorhersehbar Probleme geben.

Hmm, was ist denn die Alternative? Meine sql-Sicherungsdatei erstelle ich per Cronjob mit einem eigenen PHP-Script.

Schöne Grüße

Nico