T-Rex: Mysql Eine Tabellen auf mehrer verteilen, atomar 1:n

Beitrag lesen

Was genau meinst du damit? Eine Änderung an einem einzelnen Datensatz hat nicht solche gravierenden Auswirkungen. Selbst bei seinem unglücklichen Datendesign wird es zumindest pro Sehenswürdigkeit einen Datensatz geben. Redundanzen treten nur beim Land auf. Auch wenn man da eine Änderung vornimmt, wird sich der Aufwand in Grenzen halten. Zu erwarten sind vermutlich kaum solche Datenmengen, die ein DBMS ins Schwitzen bringen werden.

Da er Kommentare auch noch in der Tabelle hat kann es schnell sehr viel werden. Nehmen wir mal an 10 Länder haben die gleiche Sehenswürdigkeit -> 10 Redundanzen. Jedes Land hat 10 Kommentare = 10 * 10 Redundanzen = 100 mal die Gleiche Sehenswürdigkeit. Das ist für die Datenbank auf jeden Fall ein Klacks (noch)!
Jetzt nehmen wir mal weiter an die Seite boomt und bekommt viele Kommentare. Dadurch würde die Tabelle (unnötig) wachsen. Selbst wenn es einfach ein "supi *Freu*" Kommentar ist, wird die Sehenswürdigkeit mit kopiert. Bei sagen wir mal 2 Millionen Datensätze kann eine Änderung von 100 Rechtschreibfehlern schon etwas dauern. Außer man hat natürlich einen Index auf das Feld gesetzt, dann dauert das Eintragen aber wiederum recht lange etc...

Ich kann aktuell nichts zur Datenmenge sagen, da ich die nicht kenne. Auch die restlichen Felder der Tabelle kenne ich nicht. Je mehr Tabellenfelder die Tabelle hat desto schneller geht sie in die Knie. Bei einer meiner Vergangenen Projekte hatten wir eine Tabelle mit vorbildlichen Index drauf, 50 Tabellenfelder und ca. 1 Millionen Datensätze. Da hat das Suchen nach einem Indexierten Datensatz an die 10 Sekunden gedauert.

Lerne an einer einfachen Struktur und baue die Datenbank so auf, dass sie von vornherein ein paar Millionen Datensätze schafft. Später das Ganze Umzubauen kann sich sehr schwierig herausstellen.

Gruß