Direkt zum Inhalt

Bilddaten-Kompression: JPEG 2000: neuer Standard für schnelle Bilder

Seit Januar gibt es eine neue Norm für die Bildkompression. Sie soll das bewährte JPEG-Format ablösen, muss sich aber auf dem Markt noch durchsetzen.


Für das schnelllebige Internet ist das Grafikformat JPEG schon fast ein Fossil: Ende der achtziger Jahre formuliert, ist es noch heute das bevorzugte Format für Bilder, die im World Wide Web zum Abruf durch beliebige, ferne Nutzer bereitgehalten werden. Mit der Zeit zeigten sich jedoch auch Schwächen. Das eingeführte JPEG ist auf Fotografien optimiert und liefert schwache Ergebnisse für gänzlich computererzeugte Bilder; mit Mischungen von Bild- und Textteilen kommt es schlecht zurecht, und es kennt 44 verschiedene Betriebsarten (modes), die in den meisten Decodern nicht vollständig realisiert sind. Ein Nachfolgemodell soll nicht nur diese Schwächen beheben, sondern auch Bereiche – und damit Märkte – eröffnen, in denen die Datenkompression, das wesentliche Merkmal von JPEG, bisher nicht praktiziert wird. Nun steht JPEG 2000 vor der allgemeinen Einführung.

Die allerdings folgt den üblichen Regeln des anarchischen Internets: Da niemandem die Verwendung des Formats aufgezwungen werden kann, es seine Nützlichkeit aber nur bei weiter Verbreitung entfaltet, muss es durch Qualität überzeugen. Deswegen gehen der Verabschiedung eines solchen Standards regelmäßig lange Vorabstimmungen in internationalen Gremien voraus. Federführend bei JPEG ist die internationale Normenorganisation ISO; unter zahlreichen weiteren Gremien ist auch die namensgebende Joint Photographic Experts Group (JPEG). Kosten darf die Verwendung auch nichts, denn jede Lizenzgebühr würde einer Verbreitung nur im Wege stehen.

Wesentliches Ziel des Standards ist die Reduktion der Datenmengen, die beim Abruf eines Bildes über die Leitung fließen müssen, und damit die Verkürzung der Wartezeit für den Benutzer. Bilddateien sind grundsätzlich datenintensiv; die Redensart "Ein Bild sagt mehr als tausend Worte" ist vom Standpunkt des Computergrafikers aus maßlos untertrieben. Ein Computerbild besteht aus einzelnen Bildpunkten (Pixeln), und für eine mittlere Bildqualität sollten es schon tausend Pixel in der Länge und tausend in der Breite sein. Bei drei bis vier Farbwerten pro Pixel sind das eher eine Million als tausend Worte, die ein Bild dem Computer sagt; das Schwätzchen kann sich hinziehen, wenn es über eine langsame Datenleitung geht, und ein kleiner Heimcomputer ist mit derartigen Bildern bald zugestopft.

In aller Regel kann ein Bild sich jedoch kürzer fassen. Bei manchen gelingen erstaunlich große Reduktionen der Datenmenge ("Datenkompression") ohne Verlust an Bildqualität. Weitere Kompressionen sind möglich, wenn man Vergröberungen in Kauf nimmt. Das herkömmliche JPEG-Format arbeitet mit einer Fourier-Transformation auf kleinen Bildteilen; das neue verwendet stattdessen die Wavelet-Transformation, die der typischen Struktur eines Bildes besser angepasst ist und deshalb mit geringerem Datenaufwand Resultate vergleichbarer Qualität erzielt.

Damit die Mühe der Einführung eines neuen Standards auch lohnt, haben die Gremienmitglieder weitere wünschenswerte Eigenschaften in den neuen Standard mit aufgenommen:

- Verlustfreie und verlustbehaftete Datenkompression sind nicht wie bisher völlig verschiedene Verfahren, sondern Varianten ein und desselben Algorithmus; das erlaubt es, verschiedene Vergröberungen eines Original-Datensatzes in einem Aufwasch bereitzustellen und auch nebeneinander zur Verfügung zu halten. Ein Nutzer, der eine grobe Version auf seinen Bildschirm geholt hat, muss für ein besseres Bild nur eine kleinere Nachbesserungsdatei anfordern.

- Diese Abfolge kann zur Regel gemacht werden, sodass der Nutzer in jedem Fall zunächst ein grobes Bild sieht, das sich – solange seine Geduld das zulässt – zusehends verfeinert. Dabei kann die Vergröberung sowohl auf die räumliche Auflösung als auch auf die Qualität der Farbwiedergabe wirken.

- Der Bereitsteller des Bildes hat die Möglichkeit, gewisse Teile des Bildes für besonders wichtig (region of interest, ROI) zu erklären. Diese Teile werden dann auf Kosten der übrigen vorrangig in höherer Qualität übermittelt.

- Die Codierung wurde so gewählt, dass einzelne falsch übermittelte Bits nur eng begrenzten Schaden anrichten; das ist besonders wichtig für die fehlerträchtige Datenübertragung über Mobilfunk.

- Gegenüber dem bisherigen JPEG ist der Rechenaufwand für die Codierung wie für die Decodierung eines Bildes deutlich erhöht. Der neue Standard ist so ausgelegt, dass der größere Teil dieses Aufwandes einmalig beim Bereitsteller des Bildes (im Codierschritt) anfällt und der kleinere auf der Empfängerseite bei jedem Bildabruf.

- Der neue Standard sieht Möglichkeiten zur elektronischen "Beglaubigung" vor: Mit dem Bild kommt ein unverfälschbares Echtheitszertifikat oder ein unlöschbarer Urhebervermerk.

Der Kern des neuen Grafikformats ist seit Januar internationale Norm. Erweiterungen, Anwendungen auf bewegte Bilder, Beispielprogramme und andere Ergänzungen sollen bis zum Herbst dieses Jahres verabschiedet sein.


Wie definiert man Firlefanz?


Es gibt einfache Möglichkeiten der Datenkompression. Um eine große, einfarbige Fläche zu beschreiben, muss man nicht, sagen wir, tausendmal denselben Farbwert über die Leitung schicken. Es genügt, bei geeigneter Codierung, einmal den Farbwert und dann die Anzahl der Wiederholungen (in diesem Fall 1000) anzugeben. Faxgeräte und das Dateiformat PCX vermeiden mit dieser Lauflängen-Codierung (run-length coding) viel Geschwätzigkeit.

Dieses Verfahren bringt nichts ein, wenn eine große Fläche im Wesentlichen, aber mit kleinen Abweichungen, einfarbig ist. Doch auch hier gibt es noch Abhilfe. Man bilde den Mittelwert über alle Farbwerte einer geeignet gewählten Teilfläche, übermittle diesen einmalig und dann nur noch für jedes Pixel die Abweichung vom Mittelwert. Da diese Abweichung gering ist, lässt sie sich mit weniger Bits verschlüsseln, was insgesamt die Bilddatei verkleinert.

Diese beiden Maßnahmen reduzieren bereits die Datenflut, ohne die Bildqualität zu beeinträchtigen. Wenn das nicht reicht, muss man Ungenauigkeiten in Kauf nehmen – zweckmäßig solche, die möglichst viel Daten einsparen und dabei möglichst wenig auffallen. Am liebsten würde man allen überflüssigen Firlefanz weglassen und nur das Wichtige übrig behalten. Aber was ist eine mathematische Definition von Firlefanz?

Eine brauchbare Näherung liefert die Fourier-Analyse. In der Akustik ist sie geläufig als ein Verfahren, die hochfrequenten (schnell variierenden) von den niederfrequenten Anteilen zu trennen. Unterdrückung der schnell variierenden Anteile mindert die Qualität, erhält aber wesentliche Teile des Signals, wie die alten Röhrenradios demonstrieren. Angewandt auf die räumliche Folge der Pixel statt auf die zeitliche Folge der Schalldrücke, trennt die Fourier-Analyse die großräumig variierenden von den kleinräumig variierenden Anteilen. Letztere sind so etwas Ähnliches wie Firlefanz; man kann sie weglassen oder mit stark verminderter Genauigkeit wiedergeben, ohne dass es dem Betrachter sonderlich auffällt.

Allerdings steckt hinter der Fourier-Analyse die stillschweigende Annahme, das Signal sei "eigentlich" periodisch und die Abweichung von der Periodizität nichts weiter als Firlefanz. Wenn das Signal aber nicht periodisch ist – und welches Bild ist das schon –, dann ist dieser Kleinkram auch nicht mehr vernachlässigbar, und die ganze Zerlegung bringt nicht viel ein. Deswegen beschränkt die klassische JPEG-Codierung die Fourier-Analyse auf sehr kleine Bildquadrate der Größe 8 x 8 Pixel.

Für die Bildverarbeitung angemessener ist es, wenn man das räumliche Signal nicht, wie bei der Fourier-Analyse, an einem periodischen Referenzsignal misst, sondern an einem, das nach rechts und links abklingt. Das ist die so genannte Wavelet-Analyse. Ein Wavelet ("Wellchen") schaut gewissermaßen an einer bestimmten Stelle der räumlichen Achse genau hin und mit zunehmender Entfernung von dieser Stelle immer unschärfer; unter dieser Einschränkung des Gesichtsfeldes vergleicht es das Signal mit einem periodischen Signal.

Ein geeignet gewähltes Sortiment von Wavelets mit unterschiedlichen Gesichtsfeldern und inneren Perioden kann ein Signal genauso vollständig erfassen wie die periodischen Funktionen der Fourier-Analyse; aber wenn die so gewonnenen Werte zur Datenreduzierung vergröbert werden ("quantisiert" sagen die Informatiker, was aber mit Quantentheorie nichts zu tun hat), fällt es dem Betrachter weit weniger auf. Deswegen kann die Wavelet-Analyse auf weit größere Bildteile angewandt werden. Der neue Standard JPEG 2000 verwendet typischerweise quadratische Bildteile der Größe 128 x 128 Pixel.

Aus: Spektrum der Wissenschaft 7 / 2001, Seite 84
© Spektrum der Wissenschaft Verlagsgesellschaft mbH

Kennen Sie schon …

Spektrum - Die Woche – »Wir decken Kriegsverbrechen auf der ganzen Welt auf.«

In dieser »Woche« unterhalten wir uns mit einer Journalistin, die für das Recherchenetzwerk Bellingcat arbeitet. Sie erzählt uns, wie Kriegsverbrechen aufgedeckt werden – auch in der Ukraine. Außerdem beschäftigen wir uns mit zwei Mythen: einem im Gehirn und einem unter dem Antarktiseis.

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Infos