Direkt zum Inhalt

Meinels Web-Tutorial: Vom Daumenkino zum Videostreaming

Ein Video ist im Grunde nichts anderes als eine gewaltige Masse Bilder. Das macht ein Problem besonders drängend: Wie komprimiert man die Daten auf ein handhabbares Maß?
Filme im ComputerLaden...

Das Fernsehen ist tot, lang lebe das Fernsehen! Es ist noch kaum 20 Jahre her, seit fernzusehen das gesellschaftliche Kollektiverlebnis war, bei dem sich Familien und Freunde vor der Flimmerkiste zusammenfanden, um sich im fest vorgeschriebenen Programmablauf von einer Hand voll Sender gemeinsam Filme, Serien und Shows anzuschauen. Seit dem Siegeszug des Web ist diese Kultur im Rückzug begriffen. Videos, Filme und Serien sind zu jeder Zeit und an jedem Ort über das Internet verfügbar. Zunächst im Download angeboten, später dann über niedrigschwellige Streamingdienste wurde das WWW zur größten Videothek der Welt, in der man jedes Videos sehen kann, ohne sich vorschreiben zu lassen, wann und in welcher Reihenfolge das zu geschehen habe. Der ehemals passive Zuschauer wurde dank digitaler Technologien nicht nur zum Programmgestalter, sondern zunehmend selbst zum Produzenten multimedialer Daten und erster Formate von Videos 2.0. In »Bandersnatch«, einer der aktuellen Folgen der Netflix-Serie »Black Mirror«, kann der Zuschauer zu bestimmten Zeiten die Handlung selbst bestimmen, kann Entscheidungen der Charaktere beeinflussen und damit die ganze Handlung ändern.

Multimediale Daten, und dabei vor allem Videos, sind zum primären Medium in den sozialen Medien geworden. Auch Nachrichten werden zunehmend als Video versendet, und es gehört zum Familienalltag, mit den Kindern beziehungsweise den Eltern zu skypen oder Facetime-Unterhaltungen über das Internet zu führen. Influencer setzen sich auf Youtube in Szene und können damit Werbeeinnahmen generieren. Allein auf der Plattform Youtube werden jede Minute 400 Stunden Videomaterial hochgeladen. Tatsächlich: in jeder Minute 400 Stunden! Videos sind damit heute zum zentralen Kommunikationsmedium geworden.

Die Geschichte der Bewegtbilder reicht – über Zwischenstationen wie das Daumenkino – weit in die Vergangenheit zurück. Bereits analoge Videos erzeugen die Illusion einer kontinuierlichen Abfolge einer Handlung durch einen Effekt, der auf der Trägheit des menschlichen Auges basiert: Ab einer Bildrate von 25 Bildern pro Sekunde (eigentlich schon von 16 Bildern) nimmt unser Sehorgan eine kontinuierliche Bewegung statt einer Folge von Einzelbildern wahr. Daher laufen Videos in der Regel in einer Frequenz von 50 Hertz, liefern also 50 Bilder pro Sekunde (in den USA sind es 60 Hertz). Zusammen mit einer Tonspur, die mit dem Bewegtbild synchronisiert ist, entsteht der Eindruck eines einheitlichen multimedialen Erlebnisses.

Wie schon für Text-, Bild- und Audiocodierungen gilt auch für die Videocodierung: Die Leichtigkeit, mit der wir heute über diverse mit dem Internet verbundene Endgeräte auf die neuste Serie in HD-Qualität zugreifen können, verdeckt die Komplexität der dahinterliegenden technischen Abläufe. Die Videocodierung kombiniert die bereits besprochenen komplexen und ausgeklügelten Codierungs- und Komprimierungsverfahren für Grafik- und Audiodaten.

Die codierten und komprimierten Videodaten werden in »Container«-Dateien gespeichert, die typischerweise mehrere Datenformate beinhalten. Allgemein bekannte Containerformate sind MP4, AVI und MKV. Diese Videocontainer beinhalten typischerweise (mindestens) einen Header sowie die Bewegtbild- und die Audiodaten. In komplexeren Containern können zusätzlich Untertitel- (für mehrere Sprachen), weitere Audio- (für Dubbing) und Videospuren (für Video 2.0) enthalten sein.

ContainerformateLaden...
Containerformate | Bei der Videocodierung kommen die bekannten Informationscodierungsverfahren parallel zum Einsatz und erschaffen die multimediale Videoerfahrung.

Wenn man bedenkt, dass bei Videos statt nur einem Bild viele Millionen Bilder gespeichert werden müssen, ist klar, dass der Informationskomprimierung besondere Bedeutung zukommt. Verschiedene Verfahren werden verwendet, um eine möglichst große Kompressionsleistung bei möglichst geringem Qualitätsverlust zu erreichen. Eine der wichtigen Quellen für Kompressionsverfahren ist das »Subsampling«. Hier nutzt man den physiologischen Effekt, dass die menschliche Netzhaut Helligkeitsinformationen viel stärker wahrnimmt als Farbinformationen. Jedes Bild wird aus Pixeln aufgebaut, in denen die jeweiligen Helligkeits- und Farbinformation codiert sind. Durch das selektive Weglassen von Farbinformationen in eng benachbarten Pixeln lassen sich verschiedene Kompressionsraten ohne einen merklichen Verlust an Bildqualität erzielen – das menschliche Auge kann das nicht wahrnehmen.

Die folgenden Grafiken zeigen unterschiedliche Subsampling-Faktoren. Jedes Quadrat stellt dabei einen Pixel dar, der Helligkeitsinformationen trägt. Nur jene Pixel, die mit farbigen Kreisen versehen sind, tragen außerdem noch Farbinformationen.

Subsampling zur DateneinsparungLaden...
Subsampling zur Dateneinsparung

Oben links findet kein Subsampling statt. In jedem Pixel ist sowohl die Helligkeits- als auch die Farbinformation codiert. In der Grafik darunter wird Subsampling um den Faktor 2 angewendet, so dass man bereits merklich an Daten spart, die vom menschlichen Auge nicht wahrgenommen werden können. Das kann noch weitergetrieben werden, wie beim Subsampling um den Faktor 4 oben rechts. Hier werden Farbinformationen nur in jedem vierten Pixel gespeichert. Unten rechts kommt dann horizontales und vertikales Subsampling zur Anwendung, und es lassen sich weitere Daten reduzieren – dann aber bereits mit wahrnehmbaren Qualitätseinbußen.

Trotz aller ausgefeilten Kompressionsverfahren übersteigt bei Videos die Datenmenge die aller bisherigen Informationsquellen um mehrere Größenordnungen. Um ein Gespür dafür zu bekommen, welche Datenraten beim Videostreaming im Spiel sind, berechnen wir die Datenmenge für eine einzige Sekunde »High-Definition Television«:

Bildauflösung: 1920 x 1080 Pixel, Bildwiederholungsfrequenz: 60 Hertz (Bilder/s), Farbtiefe: 8 Bit (das heißt 28 = 256 Farben), Subsampling-Faktor: 2

Die benötigte Bandbreite errechnet sich dann aus einem kompletten Satz Pixel für die Helligkeitsinformationen, also 1920 x 1080 Pixel, mit jeweils acht Bit, plus zwei halben Sätzen Farbpixel, also 960 x 1080, mit wiederum je acht Bit, mal 60. Denn 60 Bilder pro Sekunde müssen angezeigt werden.

Das ergibt ( (1920 x 1080 x 8 Bit) + 2 x (960 x 1080 x 8 Bit) ) x 60 = 1,99 Gigabit.

Oder anders gesagt: knapp 250 Megabyte – pro Sekunde. Die riesige Datenmenge zeigt sehr eindrucksvoll, welche technischen Voraussetzungen gegeben sein müssen und welche Herausforderungen es zu meistern gilt, wenn wir etwas so »Einfaches« tun, wie ein Video über das Internet zu streamen. Zurzeit sind wir auf dem Weg vom »High-Definition«-Standard zum »Ultra-High-Definition«-Standard mit bis zu 8K (= 8192 x 4320 Pixel). Das erfordert nicht nur eine enorme Verbesserung in der Videoaufnahmetechnologie, sondern auch weitere Fortschritte bei der Videokomprimierung, die nach wie vor eine der wesentlichen Forschungsfragen in der Informatik bleibt.

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnervideos