Stefan: wenige große oder viele kleine Datensätze

Hi,

ich hab nochmal eine Frage aufbauend auf meine vorheriges Thema. Was denkt ihr:

Ihr habt eine Datenbank mit einer Tabelle Users und eine Tabelle Posts. Ihr verknüpft diese über eine Tabelle Postviews. Nun, gehen wir davon aus wir haben 100.000 User und insgesamt 1.000.000 Beiträge. Das bedeutet in einem relationalen Datenbanksystem liegen in der Postviews (wenn alle User alle Beiträge lesen) insgesamt 100.000.000.000 Datensätze. Das ist natürlich eine Menge, auf die man stolz sein kann.

Nun die Frage: Macht das Sinn? Kommt die Datenbank damit klar? Mir ist klar dass sie dafür ausgelegt ist, aber verarbeitet sie diese Menge auch noch schnell?! Oder wäre es hier nicht besser für jeden User alle gelesenen posts per id zu speichern und diese als kommagetrennte liste in einem textfeld zu speichern? dann hätte man wenige große Datensätze? Wie denkt ihr?

Danke,

Gruss
Stefan

  1. Hallo,

    Oder wäre es hier nicht besser für jeden User alle gelesenen posts per id zu speichern und diese als kommagetrennte liste in einem textfeld zu speichern? dann hätte man wenige große Datensätze? Wie denkt ihr?

    Naja, Du hättest dann trotzdem 100.000 Datensätze, wobei jeder Datensatz so ca 7MByte (1.000.000 x (max 6 Byte f. Id + 1 Byte f. Trennzeichen) gross sein würde, die Tabelle hat dann also an die 700 GByte (ohen VErwaltungsinformationen wie Indizes usw).

    Dazu kommt der Rechenaufwand, um diese Textfelder immer wieder zu zerlegen bzw. zusammenzubauen. Soll ich weiter machen?

    Ich denke, wenn Du mit solchen Mengen arbeitest, ist eine gute Datenbank, die auch mit großen Datenmengen zurecht kommt, verbunden mit einer entsprechenden Hardware sowieso unerlässlich.

    Grüße
      Klaus