Moin,
je mehr Normalisierung, je mehr JOINs brauchst du, je mehr logische Lesevorgänge muss das DBMS machen. Deswegen sind analytische Modelle, die für die Abfrage optimiert sind (nicht für die Eingabe) eher denormalisiert. Z.b. Stern-Schema oder wenn's des unbedingt bruucht, Schneeflöcken-Schema (Snowflake). Der Informationsgehalt ist dabei annähernd identisch, die technische Datenmenge mehr, durch Explosion und Denormalisierung. Wie gesagt, entweder die Informationen sind da oder nicht.
Methodiken sind auch der natürlichen Evolution unterworfen. Kann durchaus sein, dass man damals davon ausgegangen ist, Normalisierung ist das Allheilmittel. (Bei uns nennt es sich gerade Sharepoint ;))
Cheers
Frank