Hallo Lars,
selbstverständlich kann ich jeden Pixel auf 4x4 Pixel aufblähen und ihnen denselben Inhalt zuweisen. Das gibt ein Bild mit 16facher Fläche und selbstverständlich ohne InformationsVERLUST. Denn ich kann das ursprüngliche Bild wiederbekommen, indem ich aus jeden 4x4-Rechteck mir wieder einen Datenpunkt zurücknehme. Das ist so klar, dass es pure Bauernfängerei ist, das als "neu" zu bezeichnen.
Stattdessen kann man zusätzliche "Intelligenz" hineinstecken und z.B. Im Randbereich des 4x4-Felds Helligkeit und Farbe von den Nachbarfeldern beimischen. Sowas machen z.B. sog. "Spline"-Funktionen. Die gibt es verschiedenen Grades, je nach dem, wie weit ins Umfeld geschaut wird (1, 2, 3 Pixel weit). Eine scharfe Kante bleibt so eine scharfe Kante und ein weicher Übergang bleibt weich. Das Bild vermittelt dann den Eindruck, als wäre es mit 16-facher Auflösung aufgenommen worden. Stimmt aber nicht: Kleine Datails, die auf dem Original nicht erkennbar waren, werden nicht "dazuerfunden", es wird auch keine unlesbare Schrift plötzlich lesbar. Trotzdem sind solche Bilder häufig ausgesprochen gut brauchbar, es kommt halt auf den Anwendungsfall an.
Wenn man ein solches Bild wieder verkleinert, bekommt man nur dann das Ausgangsbild exakt zurück, wenn man genau weiß, welche Splines benutzt wurden und eben diese zurückrechnet. Ich weiß nicht, ob das in allen Fällen überhaupt theoretisch geht, vermutlich gibt es nur numerische iterative Verfahren dafür. Falls es nicht geht, hat das "verbesserte" Bild einen Informationsverlust erlitten.
Möglich, dass sich die Meldung darauf bezieht, dass man Splines verwendet (oder wavelets oder wie die Dinger sonst heißen), die man zurückrechnen kann? Mit besonders hoher Qualität des vergrößerten Bildes hat das dann aber nichts zu tun, die wird durch zusätzliche Einschränkungen bei der Auswahl zulässiger Splines eher schlechter.
Gruß
Hans35