Direkt zum Inhalt

Spezialeffekte: Wirklicher als die Wirklichkeit

Digitale Effekte zaubern in Film und Video eine Scheinwelt. Die besten Tricks sind dabei oft die, die vom Zuschauer unbemerkt bleiben.


Seit es die Fotografie gibt, erliegen Menschen der Versuchung, das Abgebildete für ein Abbild der Wirklichkeit zu halten. Mehr noch gilt das für den Film, der in fantastische Welten einlädt oder – in der Werbung – dem Zuschauer verspricht, bei Gebrauch eines bestimmten Produkts zum Beispiel schön, gesund und glücklich zu werden. Natürlich weiß jeder im Grunde, dass Bilder retuschiert, ergänzt und beschnitten werden, um solche Wirkung zu erzielen und ihre Botschaften zu übermitteln. Doch wie weit dieses Inszenieren von Wirklichkeit geht, ist nur wenigen bewusst.

Im Zeitalter der Digitalisierung wäre eine solche Medienkompetenz dringend erforderlich, denn die Möglichkeiten zur Manipulation der Aufnahmen sind heute schon fast unerschöpflich. Das demonstrierte kaum einer so anschaulich wie der Flüssigmetall-Cyborg T-1000, als er 1991 in "Terminator 2" mal eben durch ein Gitter glitt oder aus dem Fliesenmuster des Fußbodens erwuchs. Industrial Light & Magic, das von "Krieg der Sterne"- Regisseur George Lucas gegründete Unternehmen für Computertricks, vervollkommnete dafür das Morphing-Verfahren, bei dem der Rechner fließende Übergänge zwischen zwei Objekten herstellt: Beide werden mit einem Gitternetz unterlegt und dessen Knotenpunkte zur Überblendung verschoben. So wurde im Beispiel aus einem Kachelfußboden der Roboter beziehungsweise sein Darsteller. Zu den Meilensteinen digitaler Filmkunst zählen auch "Jurassic Park" (1993) – Menschen auf der Flucht vor einem Tyrannosaurus Rex – und "Hollow Man" (2000): Kevin Bacon wurde unsichtbar und enthüllte dabei sukzessive seine anatomische Struktur. Werke wie diese machen deutlich, dass Filmemacher die Welt weniger denn je einfach nur abbilden und allenfalls noch neu zusammenstellen, sondern dass sie diese schlichtweg erfinden.

Dabei kommt der so genannten Postproduction immer größere Bedeutung zu. War sie noch vor einigen Jahren ein dem Drehen nachgelagerter Prozess, der vor allem den Filmschnitt, also die Auswahl und künstlerische Komposition der aufgenommenen Bildsequenzen, zum Inhalt hatte, umfasst sie heute immer öfter auch die Bildgestaltung und wird damit Teil der Produktion selbst. Ihre ganze Spannweite zu beschreiben fällt schwer, denn die Bearbeitungsmöglichkeiten eines Film- oder Videobildes sind heute unendlich vielfältig.

Ins Auge fallen spektakuläre Effekte wie in den eingangs erwähnten Filmen, doch meist wird die digitale Bildgestaltung in der Postproduction vom Zuschauer gar nicht wahrgenommen. Dazu gehört beispielsweise die Korrektur von Farben. Es ist vergleichsweise einfach, Kontraste, Helligkeiten und Intensitäten zu verstärken oder abzuschwächen. Ein gutes Beispiel dafür gibt Wim Wenders dokumentarischer "Buena Vista Social Club" (1999), der in technicolorartigen Szenen in Havana und monochromen Konzertaufnahmen Musik und Lebensgefühl kubanischer Altstars des Son darstellte. Farbkorrekturen gehören auch zum Alltag bei Werbefilmen, etwa um das Rot einer Verpackung satter, das Weiß von Wäsche strahlender wirken zu lassen.

Farben zu verändern ermöglicht auch die Konversion einer bei Tag gedrehten Szene in eine Nachtaufnahme. Dazu bedarf es allerdings meist weiterer Eingriffe: Schatten müssen erzeugt oder gelöscht werden, Scheinwerfer oder andere Beleuchtungen und ihre Reflexionen kommen als typische Details nächtlicher Szenen hinzu. Noch anspruchsvoller, aber mitunter aus logistischen Gründen zwingend notwendig ist ein Wechsel der Jahreszeiten.

Von Krähen und Pinguinen


Als Joseph Vilsmaiers Musikerbiografie "Comedian Harmonists" 1997 in die deutschen Kinos kam, bemerkte wohl kein Zuschauer, dass eine winterliche Friedhofsszene im Sommer gedreht worden war (siehe nächste Seite). Die Experten von "Das Werk" färbten Laub von Grün auf Braun um oder retuschierten es gleich ganz, der Himmel erhielt einen fahlen Schimmer und der Boden einen Grauton. Die Bearbeitung des bewegten Filmmaterials wäre zu aufwendig geworden, weshalb man einen Kniff anwendete: Vom sommerlichen Hintergrund wurde ein Standbild gemacht und bearbeitet, der Darsteller Ulrich Noethen später wieder integriert. Bewegte Elemente brachten Leben hinein: Eine Krähe fliegt durchs Bild, einzelne Blätter bewegen sich leicht.

Sehr häufig dienen beim Drehen stahlblaue oder giftgrüne Farbflächen als Platzhalter für Bildteile, die erst in der Endbearbeitung eingesetzt werden; dieses Verfahren wird als Bluescreen bezeichnet (siehe nächste Seite). Ein Beispiel: In einem Werbespot für die Automarke Hyundai wanderten Pinguine durch München. Ihr Ziel: das Autohaus, in dem Wagen mit toller Klimaanlage zu haben seien. Ein Filmteam nahm dafür zunächst leere Straßen auf, wobei es jeweils die Kameradaten protokollierte, insbesondere Brennweite, Neigungswinkel und Abstand von der Straße. Dann wurden in einem blauen Studio exakt die gleichen Perspektiven reproduziert und dabei zwei Pinguine aufgezeichnet, die ein Dompteur in vom Drehbuch gewünschten Richtungen führte. Um beide Bildquellen zu kombinieren, wurde in den Studioaufnahmen die blaue Umgebung "maskiert", das heißt transparent gemacht, sodass dort nur die Pinguine zu sehen waren. Die ließen sich dann in die leeren Straße beliebig oft einsetzen.

Das klingt leichter als es getan ist, denn binnen einer Sekunde Film mussten 24 Vollbilder (im Fernseh- beziehungsweise Videoformat 25 mal 50 Halbbilder) maskiert werden. Der Computer ermöglicht eine Automatisierung mittels eines so genannten "Chroma-Keyers": Per Mausklick löscht dieser über die ganze Länge einer zuvor definierten Bildsequenz die Daten alles Blauen. In Anlehnung an die klassische Filmbearbeitung zeigt dies der Computer, indem er die entsprechenden Partien schwarz färbt. Bei dem Bluescreen-Verfahren ohne Rechnerunterstützung sind derartige Bereiche dann lichtundurchlässig und wirken als Maske.

Nach der Kombination der verschiedenen, maskierten "Filmstreifen" läuft der Pinguin durch die Straße. Natürlich kann man diesen Prozess beliebig oft wiederholen und aus einem Pinguin eine ganze Herde machen. Allerdings reflektierte das weiße Brustgefieder der Vögel trotz sorgfältiger Ausleuchtung die blaue Studiofarbe – ein Fall für die Farbkorrektur. Zudem erzeugten die Federn fein verästelte "Berandungen" der Vögel; die automatischen Maskierungs-Werkzeuge stießen hier an ihre Grenzen und Handarbeit, also Maskieren Pixel für Pixel, war gefragt.

Nichts ist unmöglich


Die Protagonisten in "Jurassic Park" wären sicher froh gewesen, hätten sie sich nur mit Pinguinen herumschlagen müssen. Szenen wie die nächtliche Verfolgung durch einen T-Rex markieren das andere Ende der Möglichkeiten digitaler Nachbearbeitung: das Einfügen virtueller, räumlicher Objekte mit fotorealistischer Anmutung in Realaufnahmen. Diese im Computer generierten Objekte sind Produkte der 3D-Animation und erlauben die Gestaltung vollkommen artifizieller Bildwelten, so genannter Computer Generated Images (CGI). Hier wird deutlich, dass die Unternehmen der digitalen Postproduktion die Sphären der klassischen Nachbearbeitung bereits verlassen haben. Längst entstehen Bildwelten erst mit Hilfe der Gestalter am Computer, mitunter sind diese Bildwelten dann auch komplett virtuell, reine Produkte der 3D-Animation.

Als riesige Brontosaurier im "Jurassic Park" Blätter von den Bäumen zupften, war dem Zuschauer natürlich klar, dass er nur eine perfekte digital erzeugte Illusion genoss. Bei einer Autoverfolgungsszene von "Mission Impossible 2" (2000) hingegen dürfte er nicht einmal das bemerkt haben. Tricktechniker fügten bei der Nachbearbeitung computergenerierte Staubwolken und wegspratzende Steine ein, um das Ganze dramatischer wirken zu lassen.

Von gewollt künstlich wirkenden Animationen abgesehen, bieten sich rein virtuelle Bildelemente überall dort an, wo herkömmliche Tricks gar nicht möglich sind oder schlechtere Ergebnisse liefern würden. Dabei darf nicht übersehen werden, dass der Zeitaufwand erheblich sein kann. Bei der Gestaltung einer fotorealistischen Sphinx für den Vorspann der gleichnamigen ZDF-Reihe erzeugten unsere Animateure zunächst ein Gitternetzmodell als Gerüst. Um eine detailreiche Oberfläche zu erhalten, umfasste das Netz 120000 Vielecke (Polygone). Damit daraus eine Sphinx entsteht, mussten Textur, Farben und Lichtwirkung definiert werden. Je mehr Kanten und Strukturen das auf die Oberfläche einfallende – simulierte – Licht brechen oder ablenken können, desto höher wird die Datenmenge und desto komplexer die Berechnung eines Bildes (fachlich "Rendering") beziehungsweise einer Bewegungssequenz. Um den fotorealistischen Eindruck zu erhöhen, wurde der Weg des Lichts und damit alle Brechungen durch Verfolgung einzelner Strahlen bis zum Zuschauer berechnet (fachlich "Raytracing"). Im Schnitt dauerte das hier pro Bild fünf bis zehn Minuten. Koppeln von drei Rechnern mit jeweils zwei Prozessoren beschleunigte das Verfahren, sodass die insgesamt sechssekündige Animation nach 105 Minuten gerendert war – die Hardware gewinnt an Bedeutung.

So vielfältig die Möglichkeiten der digitalen Postproduction sind, der Teufel steckt oft im Detail. Um verschiedene Bildwelten – etwa Realaufnahmen und virtuelle – glaubhaft miteinander zu verschmelzen, müssen sie von vornherein sehr präzise aufeinander abgestimmt sein. Nur dann, wenn Blickwinkel identisch, Kamerabewegungen synchronisiert und Farb- und Helligkeitswerte aufeinander abgestimmt sind, ergibt die Kombination (fachlich "Compositing") dieser Bildquellen eine Sequenz aus einem Guss.

Für ein perfektes Compositing bei bewegter Kamera müssen zusätzlich die Kamerabewegungen im real gefilmten Raum mit den Bewegungen des virtuellen Objektes abgestimmt werden. Bei der Darstellung des letzteren unterstellt man eine imaginäre Kamera mit variabler Brennweite und Blende. Um die Bewegung der realen mit der virtuellen Kamera zu synchronisieren, wird zunächst die Bewegung der ersteren im real gefilmten Material analysiert. Hier helfen spezielle "Tracking"-Programme (englisch für "Verfolgen").

Die Funktion solcher Software demonstrierte das Fernsehen im Irak-Krieg: Aus Flugzeugen aufgenommene Bilder zeigten Gebäude, die trotz der bewegten Kamera wie festgenagelt im Zentrum des Bildes blieben und zu Zielen von Raketen wurden. In der Bildbearbeitung helfen ähnliche Programme, Bewegungen durch den Raum zu analysieren und perspektivische Veränderungen darzustellen. Um wirkliche Kamerafahrten und -schwenks in virtuelle umzusetzen, werden im real gedrehten Material auffällige, kontrastreiche Punkte eines Objekts markiert und ihre Bewegung dann verfolgt (fachlich "Tracking"). In der Regel arbeitet man mit maximal vier solchen Punkte je Objekt; zwei reichen bereits, um auch Größenveränderungen mit variierendem Abstand von der "Kamera" oder Drehungen im Raum zu erfassen. Die derart gewonnenen Bewegungsdaten können dann auf die virtuelle Kamera übertragen werden. Die Tracking-Software sorgt auch dafür, dass neue, auf einer solchen Markierung "angeheftete" Bildelemente den Bewegungslinien ebenfalls folgen – diese scheinen mit dem markierten Objekt verwachsen zu sein.

Ob die Mitarbeiter der Postproduction nun aber nur den Filmschnitt vornehmen, Korrekturen durchführen, verschiedene Bildquellen miteinander kombinieren oder Animationen bis hin zu Spezialeffekten einbinden, das Ergebnis muss immer mehr sein als die Anwendung ausgetüftelter Technik. Ein guter "Postproductioner" spielt auf seinem Instrumentarium mit viel Gespür für die cineastische Wirkung.

Eine solche Meisterleistung boten die Kollegen von ILM mit ihren Wassersimulationen für Wolfgang Petersens "Der Sturm" (2000). Ein Jahr lang analysierten sie Filmaufnahmen von Wasser und Wellen und Schiffen in schwerer See. Sie entwickelten in dieser Zeit Simulationsreihen, die Verfahren der numerischen Strömungsmechanik für die Wellen und Turbulenzen verwendeten, dynamische Berechnungen von Teilchensystemen für Spritzer und Gischt. Insgesamt 250 Einstellungen des Films enthielten dann derart modellierte Wassermassen, ein Drittel davon in Kombination mit Realaufnahmen. Dass der Zuschauer glaubt, einem Sturm gigantischen Ausmaßes beizuwohnen, verdankt er nicht nur der Simulation physikalischer Prozesse, sondern auch dem richtigen Quantum "künstlerischer Freiheit". So stellten die Mitarbeiter von ILM fest, dass einige Berechnungen unecht wirkten, obwohl sie den Vergleich mit Filmdokumenten standhielten. Andererseits steigerten Modifikationen der wissenschaftlich korrekten Simulationsdaten die Dramatik und authentische Anmutung. So ließen sie Wellen schneller brechen oder zwei Wellenberge direkt hintereinander laufen. Stefan Fangmeier, Supervisor für Special Effects bei ILM, erwiderte auf Kritik: "Wir machen hier keinen Dokumentarfilm für National Geographic. Wir sind in Hollywood und müssen durch Überhöhung genau die dramatische Bedrohung erzeugen, die dem Zuschauer den Atem nimmt."

Hier wird der Spezialist für visuelle Effekte zum Künstler, der mit einem unrealistischen Bildelement die vom Regisseur gewünschte Wirkung erzielt. Auch dieses Können benötigt er nicht nur für spektakuläre Effekte, sondern oft auch im Verborgenen, um die Poesie einer filmischen Erzählung zu ermöglichen. Denn das physikalisch Mögliche liegt beim Film stets in der Nachbarschaft des Unmöglichen, wie eine Szene aus Tom Tykwers "Der Krieger und die Kaiserin" (2000) zeigt. Hauptdarstellerin Franka Potente hält sich darin eine Muschel ans Ohr und lauscht. Die Kamera fährt immer näher an die Muschel heran, die Schauspielerin verschwindet aus dem Bildfeld, die Schale füllt das Bild, die Kamera fährt weiter vorwärts, in den Gang des Gehäuses hinein.

Eine solche Kamerafahrt ist technisch nicht machbar, denn man benötigte hierfür ein Mikroobjektiv, das noch dazu aus großem Abstand ebenso scharf abbildet wie im Makrobereich und dabei auch noch die sich verändernden Lichtverhältnisse korrigiert. Unsere Effektspezialisten modellierten deshalb Kopf, Muschel und Hand als räumliches Gitternetz, auf das sie dann Aufnahmen des Kopfes von Franka Potente, ihrer Hand und der Muschel texturierten. Nun konnten sie mit einer virtuellen Kamera die von Tykwer gewünschte Fahrt realisieren. Dem Zuschauer fiel das nicht auf, er erlebte das lyrische Moment dieser Sequenz. Die besten Effekte sind schließlich die, die man nicht als solche wahrnimmt.

Literaturhinweise:


Künstliche Welten – Tricks, Special Effects und Computeranimation im Film von den Anfängen bis heute. Von Rolf Giesen und Cluadia Meglin (Hrsg.). Europa Verlag Hamburg/Wien, 2000.

Making of ..., Band 1 und 2. Von Ludwig Moos (HRsg.). Rowohlt Taschenbuch. 2. Auflage 1999

Drehen und Produzieren mit Video. Von Gerald Millerson. Reil Videoproduktion, 2000

The Ifilm DV Filmmaker's Handbook. Von Maxie Collier. Son #1 Media, 1998, Bezug über www.dvfilmmaker.com

Digital Moviemaking. Von Scott Billups. Micheal Wiese Productions, 2000. Bezug über www.mwp.com/pages/booksdigitalmovie.html

Making Digital Cinema Acutally Happen – What It Takes and Who's Going to Do It. Von A. Morley in: 140th Annual SMPTE Technical Conference Proceedings, Pasadena Calif., S. 448-462, October 1998.

Aus: Spektrum der Wissenschaft 3 / 2001, Seite 84
© Spektrum der Wissenschaft Verlagsgesellschaft mbH

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Infos
Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.