Hallo,
Sind die Daten aber statistisch zufällig verteilt, sind derartige Algorithmen kaum nützlich (schon mal versucht, eine JPG-Datei zu zippen? Es bringt normalerweise nichts).
ja, weil jpeg selbst bereits einen sehr starken kompressionsalgorithmus verwendet - und dann ist weitere kompression idR. wenig erfolgreich.
Eben - die Aussagen sind zwar nicht äquivalent, laufen aber auf dasselbe Ergebnis hinaus: Solange eine gegebene Datenmenge gewisse Regelmäßigkeiten aufweist (Periodizität, mehrfache Wiederholung bestimmter Muster, etc.), kann man sie ohne Informationsverlust weiter komprimieren.
Eine ideale Kompression erzeugt daher eine Datenmenge, in der alle Zustände (z.B. alle Bytewerte) gleich häufig und in ihrem Kontext gleich wahrscheinlich sind. Die JPEG-Kompression kommt diesem Ideal sehr nahe.
Schönen Abend noch,
Martin