Hello,
"Pumpen" hat man aber auch bei vielen Studioaufnahmen heute.
Dann ist das entweder ein bewusst eingesetzter Effekt oder aber ein Zeichen für einen unfähigen Ton-Techniker;-)
Das ist aber nicht zu verwechseln mit dem Einsatz einer verlustbehafteten Komprimierung.
Pumpen kommt von übertriebener Dynamikkompression.
Die wird auch bei schlechten MP3-Codern eingesetzt, um das Ausgabefile klein zu halten.
Wenn andere Methoden nicht so ausgefuchst programmmerit sind, muss man es ja irgendwo wieder reinholen.
Eine gute MP3-Berchnung, die außer den physiologischen Gegenheiten des Ohres auch die physikalischen des zu erwartenden Wiedergabegerätes berücksichtigt, können selbst geübte Musiker nicht mehr von einer WAV-Aufnahme (normale CD-Qualität) unterscheiden, wohl aber von einer guten Bandaufnahme (Analog) oder einer Life-Überspielung.
Naja, "verlustbehaftete Komprimierung" deutet aber doch mit Riesen-Leuchtschrift-Lettern darauf hin, dass die MP3-Datei schlechter ist als das Original ( also soweit man bei einer WAV-Datei von Original sprechen kann).
Eine WAV-Datei ist kein Original. Das ist eine weniger oder mehr schlechte digitale Abtastung eines komplexen Frequenzgemischs. Dank Fourier meint man, solche Dinge berechnen zu können. Allerdings reduziert man die Qualität da für das typische CD-Format auf eine Abtastfrequenz von 44.100 Hz und eine Auflösung von 2 Bytes. 2Bytes bei 44.100 Hz lassen Klänge immer noch rauh erscheinen.
Bei der Wiederherstellung entstehen Aliase, die man wegfiltern muss. Diese dazu verwendeten sehr steilflankigen Filter verdrehen den Frequenz-Phasenverlauf derartig, dass man nicht mehr von Originalqualität sprechen kann.
WAV ist in eienr Zeit entstanden, als Wiedergabegeräte eben doch noch überwiegend analog aufgebaut waren.
Das mit der Phasenbeziehung musst Du näher erklären. An sich sollten (eine halbwegs brauchbare Wiedergabe-Hardware vorausgesetzt) die einzelnen Kanäle der WAV-Dateien phasenstarr wiedergegeben werden. 'Phasenschweinereien' können allerdings auch während der (Mehrspur-)Aufnahme, der Abmischung oder dem Mastering durch Fehler des Technikers durchaus passieren (oder sie werden bewusst als Effekt zur 'Stereo-Verbreiterung' eingesetzt).
Nun, dafür hat der Techniker schließlich einen Korrelationsmesser. Wenn der im Mittel von 0,5 abweicht, passt etwas nicht.
Allerdings kann dies durhc die MP3-Komprimierung wiederum nur schlechter werden. Z.B. habe ich die Erfahrung gemacht, dass es viele MP3-Dateien gibt, die so extrem an Flanging-Effekten leiden, dass man sie einfach nicht anhören kann.
Dann sind sie schlecht berechnet.
Die Wiedergabe ist im Vergleich zur Erzeugung mit einfachsten Mitteln möglich.
Die Berechnung verlangt aber schon ein wenig Rechenpower und auch die besten (teilweise z.Zt. patentierten) Verfahren.
Aus einer Digitalen Aufnahme mit 44.100 Hz Abtastrate kann man übrigens kein gutes MP3 erzeugen. Dazu benötigt, man genauso Studioqualität als Ausgangsmaterial, wie für das Mastering der 44.100er CD.
Wenn Du vergleichst, müsstest Du also bitte auch MP3s aus demselben Ausgangsmaterial erzeugen, aus dem die CD gemacht wird. Im Studio sind 48k (Billiganbieter) oder 96k (Standard) oder, heute sogar noch mehr, üblich.
Harzliche Grüße vom Berg
http://www.annerschbarrich.de
Tom
--
Fortschritt entsteht nur durch die Auseinandersetzung der Kreativen
Nur selber lernen macht schlau