Direkt zum Inhalt

Virtuelle Verwitterung

Wie erzeugt man bessere Computerbilder einer fiktiven Realität? Indem man die physikalischen Prozesse, die das Erscheinungsbild von Gegenständen beeinflussen, realitätsgetreuer nachbildet. Das gilt besonders für die Alterung von Oberflächen.


Die Computergrafik dringt zunehmend in die Unterhaltungsindustrie ein. Ein bedeutender Schritt war der Kinofilm "Toy Story" von 1995, der in voller Länge als Computerani-mation produziert wurde. Doch die im Rechner erschaffenen Szenen und Darsteller unterscheiden sich im Allgemeinen immer noch merklich von der Realität: Alles ist ein wenig zu glatt und zu sauber, wie ein fabrikneues Plastikteil. Es fehlen Dreck und Staub, Sprünge und Schrammen; rostfarbene Tropfspuren an der Wand von einer undichten Regenrinne; grünfleckige Patina auf einer Kupferstatue (Bild rechts); das salzverkrustete, verwitterte Gesicht einer antiken Skulptur (Bild Seite 78); die feinen Nuancen der menschlichen Haut mit Sommersprossen, Poren, Falten und der leichten Rötung, die sie erst lebendig wirken lässt (Bild Seite 76).

Für den Nachfolgefilm "Toy Story 2", der kürzlich in die Kinos kam, fügten die Leute von der Herstellerfirma Pixar denn auch Umweltspuren wie Schrammen und Schmutz hinzu, aber auf eine sehr unsystematische und Zeit raubende Weise: Sie bemalten die Oberflächen mit geeigneten Mustern. Selbst wenn man dieses gängige Verfahren weit intensiver und unter großem Aufwand an Computerleistung praktizieren wollte, würden die gerechneten Darsteller immer noch wie Wachsfiguren oder Karikaturen aussehen. Für eine täuschend echte Simulation müssen wir das Erscheinungsbild der verschiedenen Materialien korrekt modellieren, Abnutzung und Verschmutzung eingeschlossen. Diese Materialmodelle sind für das Endergebnis sogar bedeutender als die eingeführten Techniken zur Berechnung der Beleuchtungseffekte wie Ray-Tracing und Radiosity (die als Erzeuger von weichen Schatten und Reflexen gleichwohl unentbehrlich sind).

Solche Modelle werden derzeit immer realistischer. Sie geben mittlerweile die innere Struktur eines Materials sehr getreu wieder und damit auch die Effekte von Lichtstreuung und -reflexion in einer dünnen, oberflächennahen Schicht – entscheidend für eine realistische Wiedergabe. Außerdem erfassen die Modelle Alterungsprozesse, etwa dass durch Korrosion Oxidschichten variabler Dicke entstehen oder Teile der Oberfläche wegbrechen. Heutige Zeichenprogramme stellen einen Werkzeugvorrat bereit, mit dem man Farbe sowie andere Oberflächenmerkmale nacheinander auf ein virtuelles Objekt auftragen kann. In Zukunft wird es vielleicht entsprechende Softwarewerkzeuge geben, die eine Oberfläche verrosten oder unregelmäßig verschmutzen lassen.

"Rendering", das heißt die Erzeugung realistischer Bilder im Computer, findet nicht nur in der Filmproduktion statt, sondern in der Industrie allgemein. Der Flugzeughersteller Boeing verschaffte seinen Entwicklern einen fotorealistischen Blick auf und in das Flugzeug 777, als es noch in der Planung war; Architekten und Stadtplaner machen sich vorab ein detailliertes Bild von der Wirkung geplanter Gebäude auf die Umgebung.

Wissenschaftler und Künstler stellen seit langem Theorien darüber auf, wie das Erscheinungsbild natürlicher Dinge zu Stande kommt. Im 17. Jahrhundert reproduzierten Rembrandt und andere niederländische Maler in ihren lebensechten Porträts die natürlichen Hauttöne, indem sie mehrere Schichten von Farbe und Firnis übereinander legten. Im 19. Jahrhundert erklärte Lord Rayleigh die blaue Farbe des Himmels, das Irisieren der Schmetterlingsflügel und den Glanz polierter Oberflächen durch physikalische Gesetze. Von diesen Erfahrungen und Erkenntnissen profitieren heute die Computergrafiker.

Für das Rendering einer Szene müssen vorgegeben sein: die Gegenstände samt Form, Position, Orientierung und Oberflächenmaterial, die Lichtquellen mit ihren Eigenschaften wie Helligkeit, Farbe und Art (punktförmig oder diffus) sowie der Standpunkt der Kamera. Aus diesen Informationen berechnet das Programm das Erscheinungsbild jeder sichtbaren Fläche.

Dafür gibt es verschiedene Verfahren. Man berechnet entweder den Weg einzelner Lichtstrahlen von Reflexion zu Reflexion ("Ray-Tracing", Bild Seite 80 oben) oder den Austausch von Lichtenergie zwischen verschiedenen Oberflächen der Szene ("Radiosity"). Stand der Technik ist zur Zeit das so genannte stochastische Ray-Tracing: Lichtstrahlen, die auf eine Oberfläche treffen, werden gemäß einer Wahrscheinlichkeitsverteilung, die von den Eigenschaften der Oberfläche und möglicherweise der Umgebung abhängt, in die verschiedenen Richtungen gestreut. Dieses Verfahren funktioniert zuverlässig für sehr unterschiedliche komplexe Formen und Materialien.

Die Grundlagen des Renderings wurden vor über zwei Jahrzehnten innerhalb weniger Jahre an der Universität von Utah erarbeitet. In den ersten Verfahren zur Einfärbung von Flächen ("Shading") waren einfache Modelle für Beleuchtung und Reflexion eng mit Interpolationstechniken verknüpft. Die äußere Form eines Gegenstandes war in der Regel durch ein Dreiecksnetz (eine Triangulierung) angenähert. Henri Gouraud entwickelte das nach ihm benannte Shading-Verfahren: Nur für die Ecken der Dreiecke wird berechnet, mit welcher Helligkeit und Farbe sie aus der gegebenen Blickrichtung erscheinen würden. Die entsprechenden Werte für das Innere des Dreiecks werden aus den Eckwerten interpoliert. Lance Williams und Edwin Catmull, der später Pixar mitgründete, schlugen als Erste das so genannte Texture-Mapping vor. Dabei wird ein Bild – zum Beispiel ein Sprenkelmuster – auf die dreidimensionale Oberfläche des Körpers gelegt, so wie ein Kunststoffteil mit einer bedruckten Folie überzogen wird.

Für die Effekte der Lichtreflexion verwendeten die frühen Verfahren ein phänomenologisches Modell, das heißt eines, das die Erscheinung hinreichend getreu wiedergibt, ohne die Physik der Wechselwirkung zwischen Licht und Materie explizit zu berücksichtigen. Es besteht aus einer einfachen mathematischen Funktion, der "bidirektionalen Reflexions-Distributionsfunktion" (BRDF, siehe Kasten Seite 79). Die verschiedenen Typen von BRDF beschreiben Materialien von Pappe, die das Licht gleichmäßig in alle Richtungen streut (das Lambertsche Reflexionsgesetz), bis hin zu perfekten Spiegeln, die einen Lichtstrahl in nur eine Richtung reflektieren (siehe Bild Seite 80 unten). Zwischen diesen Extremen liegen glänzende Materialien, die das Licht vorzugsweise, aber nicht ausschließlich in eine bestimmte Richtung reflektieren. Auf einer Kugel aus diesem Material erscheint für jede Lichtquelle ein heller Fleck, je glatter das Material, desto ausgeprägter; man wählt die BRDF des simulierten Materials so, dass dieser Glanzpunkt die richtige Größe hat.

Wichtiger als das Reflexionsvermögen ist für die meisten Materialien die so genannte Textur, die kleinteilige Oberflächenstruktur: Haare eines Fells, die Körner in einem Ziegelstein, die Sprenkel in Granit, Maserung von Holz. In der Computergrafik pflegt man bislang Textur und Reflexionsvermögen als unabhängige Eigenschaften einer Oberfläche anzusehen. Es ist jedoch die kleinteilige Mischung von glatten und rauen Bereichen, das heißt die texturabhängige Variation der Reflexivität, die den richtigen optischen Eindruck erzeugt. Um das im Computer zu simulieren, gibt es zwei Standardverfahren, das eine sehr programmierintensiv (algorithmisch), das andere sehr interaktiv.

Das erste Verfahren ist zum Beispiel besonders geeignet für Holzmaserung. Ein Algorithmus erzeugt eine räumliche Struktur aus dreidimensionalen konzentrischen (nicht unbedingt kreisförmigen) Ringen. Daraus wird eine Bodendiele oder ein Tischbein gewissermaßen ausgesägt. Die derart angeschnittene Ringstruktur bestimmt dann Punkt für Punkt die Reflexionseigenschaften der Oberfläche.

Am anderen Extrem der Skala zwischen algorithmisch und interaktiv trägt der Künstler am Bildschirm mit einem simulierten Pinsel Farbe auf die Oberfläche auf. Die Eigenschaften der Malerfarbe (Matt- oder Hochglanzlack) bestimmen die Reflexivität und der Pinselstrich die Textur. Da dieses Verfahren der gewohnten Arbeitsweise der Künstler sehr nahe kommt, sein Ergebnis sofort sichtbar wird und sich schnell korrigieren lässt, ist es in der Unterhaltungsbranche sehr verbreitet.

In vielen Einzelfällen liefern beide Verfahren durchaus eindrucksvolle Ergebnisse. Aber sind sind häufig sehr Zeit raubend – es dauert eine Weile, eine Ziegelwand zu pinseln, selbst mit algorithmischer Unterstützung – und schlecht zu verallgemeinern: Techniken, die sich für bestimmte Aufgaben bewährt haben, stoßen bei anderen schnell an ihre Grenzen. Aus dem Wunsch, diese Grenzen zu überwinden, hat sich ein neuer Trend ergeben: Man verwende genauere Informationen über das Material und seine Wechselwirkung mit Licht.

Raue Oberflächen


Die Rauheit einer Oberfläche ist ein gutes Beispiel für eine Materialstruktur, die das Erscheinungsbild bestimmt. Gebürstete oder geschliffene Metalloberflächen sind oft von Mikroschrammen überzogen. Gewebte Textilien bestehen aus sich kreuzenden (Kett- und Schuss-)Fäden, wodurch kleine Berge und Täler entstehen. Diese Eigenschaften können sich mit der Zeit ändern; manche Oberflächen werden durch Abnutzung glatter, andere stumpf.

Die Mikrogeometrie einer rauen Oberfläche lässt sich durch ein Höhenfeld modellieren. Eine solche Funktion gibt zu jedem Punkt der Oberfläche an, wie weit er von der idealen Position nach oben oder unten abweicht. Ein Höhenfeld kann durch eine Zufallsfunktion mit spezifischen statistischen Eigenschaften oder aber durch eine Vielzahl von – am realen Beispiel gemessenen – Einzelwerten gegeben sein.

Der Erste, der sich mit der Reflexion an rauen Oberflächen wissenschaftlich befasste, war Pierre Bouguer (1698 – 1758) zur Zeit der Aufklärung. Er stellte sich eine solche Oberfläche aus lauter mikroskopisch kleinen ebenen Flächen bestehend vor. Die Lichtmenge, die in Richtung eines Beobachters reflektiert wird, hängt dann davon ab, wie viele dieser Mikrofacetten die richtige Orientierung zum Beobachter haben. Bouguer hoffte, das Lambertsche Gesetz durch ein Ensemble von Mikrofacetten mit geeigneter Verteilung der Orientierungen erklären zu können. Doch dies stellte sich als unmöglich heraus.

Für spiegelnde oder glänzende Oberflächen dienen die Mikrofacetten inzwischen jedoch als weit verbreitetes Modell. Die Verteilung ihrer Orientierungen ist in den üblichen Computergrafik-Programmen einstellbar. Üblicherweise wählt man eine einfache Verteilung, die von einer einzigen Zahl, dem Rauheitsparameter, abhängig ist.

Doch selbst für glänzende Oberflächen stößt dieses Modell an seine Grenzen. Wenn das Licht zum Beispiel unter einem sehr flachen Winkel auf die Oberfläche trifft, werfen die winzigen Erhebungen Schatten, was das Erscheinungsbild dramatisch verändert. Leider ist dies nur sehr schwierig rechnerisch nachzuvollziehen. Wenn gar die Berge und Täler auf der Oberfläche die Größenordnung der Lichtwellenlänge haben, gilt Bouguers einfaches Reflexionsgesetz nicht mehr, und es müssen wellenoptische Effekte wie Beugung und Interferenz berücksichtigt werden.

Überraschenderweise findet die Wechselwirkung von Licht mit Materie, insbesondere die Reflexion, oft nicht an der – beliebig dünnen – Grenzfläche zwischen Luft und Festkörper statt, sondern innerhalb des Materials. Dieses Phänomen (subsurface scattering, "Streuung unter der Oberfläche") ist die Regel bei organischen Substanzen und bei Kunststoffen. Die betroffene Grenzschicht ist wenige Mikrometer dick, etwa bei Lacken und anderen Beschichtungen, oder bis zu einigen Millimetern, etwa bei menschlicher Haut und bei Marmor.

Wenn es unter die Haut geht


Innerhalb dieser Grenzschicht wird das Licht von den einzelnen Atomen oder Molekülen des Materials gestreut und absorbiert. Es ist im Wesentlichen derselbe Prozess, der – mit Wassertröpfchen anstelle der Atome – in Nebel oder in einer Wolke stattfindet. Nach der Streuung kann das Licht das Material verlassen und dem Betrachter als reflektiertes Licht erscheinen; zum größten Teil wird es jedoch um weniger als 90 Grad gestreut, sodass es weitere Materieteilchen trifft, bevor es wieder nach außen gelangt. Je mehr Streuprozesse sich ereignen, desto stärker nähert sich die Richtungsverteilung des reflektierten Lichtes einer Gleichverteilung an. Mit diesem Argument pflegt man heute das Lambertsche Gesetz zu erklären.

Ursprünglich wurde die Theorie der Lichtstreuung innerhalb von Materie entwickelt, um den Transport von Energie durch Strahlung in Planeten- und Sternatmosphären zu erklären. Forscher, die sich für die optische Wirkung von Farbauftrag, Haut, Vegetation und Meerwasser interessierten, entwickelten sie weiter; erst in jüngster Zeit sind ihre Ergebnisse in die Computergrafik eingegangen. Interessanterweise beschreibt die Theorie in befriedigender Weise das Erscheinungsbild sowohl einfachster Oberflächen, wie einer sauber gestrichenen Wand, als auch kompliziertester, wie menschlicher Haut.

Wie jeder Gelegenheitsanstreicher weiß, enthalten die meisten Farbmischungen für Lackierungen oder Wandanstriche die Grundfarbe Weiß. Deren Pigmente bestehen aus Titandioxid, das praktisch kein Licht absorbiert, sondern es perfekt streut. Wenn Licht auf eine mattweiß gestrichene Fläche fällt, dringt es in die Farbschicht ein, wird dort viele Male an den Titandioxid-Pigmentteilchen gestreut und verlässt die Schicht wieder. Die Fläche erscheint weiß, weil nur sehr wenig Licht absorbiert wird, und das bei allen Wellenlängen in gleichem Maße. Die fast gleichförmige Verteilung der Richtungen, unter denen das Licht die Farbschicht verlässt, sorgt für das matte Erscheinungsbild.

Für farbige Anstriche wird der Mischung ein geringer Anteil Farbpigmente zugesetzt. Das sind chemische Verbindungen, die selektiv das Licht bestimmter Wellenlängen absorbieren. Da sich die Pigmentteilchen in einer perfekt streuenden Umgebung befinden, trifft jedes Photon mit hoher Wahrscheinlichkeit auf ein solches Teilchen und wird absorbiert, wenn es die richtige Farbe (Wellenlänge) hat. Die Fläche erscheint dann in der zugehörigen Komplementärfarbe. P. Kubelka und F. Munk haben 1931 als Erste diesen Vorgang physikalisch beschrieben. Sie nahmen an, dass die absorbierenden Teilchen das Licht gleichmäßig in alle Richtungen streuen, und erhielten eine Formel, welche Farbe und Intensität des reflektierten Lichtes in Abhängigkeit von der Dicke der Farbschicht und der Pigmentkonzentration angibt. Die Formel beschreibt auch die Wirkung eines Gemischs aus mehreren Pigmenten oder übereinander liegender Schichten unterschiedlicher Zusammensetzung.

Das Modell von Kubelka und Munk ist das einfachste und gebräuchlichste. Doch da es gleichmäßige Streuung in alle Richtungen annimmt, gilt es nur für matte Oberflächen. Für die Reflexion mit Vorzugsrichtung – glatte Oberflächen – ist das Modell erweitert worden. Im Wesentlichen zerlegt man das einfallende Licht in zwei Anteile. Der erste wird nur einmal – mit starker Richtungsabhängigkeit – gestreut, der zweite mehrfach nach dem Kubelka-Munk-Modell beziehungsweise dem Lambertschen Gesetz.

Wir haben diese theoretischen Erkenntnisse zur Simulation der menschlichen Haut angewandt. An dieser Aufgabe ist die Computergrafik lange Zeit gescheitert, weil das menschliche Wahrnehmungsvermögen gerade für Haut sehr gut ausgeprägt ist und deswegen die kleinsten Fehler sofort auffallen. Das Modell einer Streuung an mehreren Schichten innerhalb des Materials hat sich als sehr geeignet herausgestellt.

Die menschliche Haut besteht hauptsächlich aus zwei Schichten: der inneren Dermis und der äußeren Epidermis. Die Dermis ist stark durchblutet und daher rot. Die Epidermis ist dünner, enthält jedoch Melanin, das in größeren Konzentrationen für die braune oder schwarze Hautfarbe verantwortlich ist. Zusätzlich kann die Epidermis von Talg, Schmutz oder Kosmetika überzogen sein.

Für ein realistisches Porträt sind die Konzentration von Blut in der Dermis und von Melanin in der Epidermis sowie die Dicke beider Schichten festzulegen, und zwar unterschiedlich für verschiedene Teile des Gesichts. So erscheinen die Lippen rot, weil ihre Epidermis sehr dünn ist. Sommersprossen lassen sich durch zufällig verteilte Fleckchen mit erhöhter Melaninkonzentration simulieren (Bild Seite 76).

Es soll ganz schön alt aussehen


Die frühen Modelle der Computergrafik idealisierten ihre Gegenstände zu sehr. Veränderungen durch Umwelteinflüsse waren nicht vorgesehen, sodass alle Dinge wie neu aussahen. Aber in der echten Welt wirken Korrosion, Erosion, Sedimentation, Verrottung und mehr: Ziegelmauern werden ausgefressen, Stahlkonstruktionen rosten, Lack blättert ab, Holz dunkelt nach. Offensichtlich wirken Alterungsprozesse auf verschiedene Materialien verschieden. Außerdem kommt es darauf an, ob die Oberfläche zuvor poliert, gebeizt oder beschichtet war.

Seit kurzem entwickeln wir computergrafische Algorithmen für einige solcher Prozesse. Dabei versuchen wir zunächst die zu Grunde liegenden physikalischen Vorgänge zu verstehen und entwerfen darauf aufbauend die numerischen Modelle.

Ein klassisches Beispiel für den Effekt einer solchen Umwelteinwirkung ist die Patina auf metallischen Oberflächen, jene Kruste oder glatte Schicht, die durch chemische Reaktionen sowie durch Anlagerung oder Abtragung von Material entsteht. Die korrosive Wirkung der Atmosphäre kann zusätzlich durch Anstriche oder andere Oberflächenbehandlungen beeinflusst werden. Regenwasser, der Schwefelgehalt der Luft – der in Städten generell höher ist als auf dem Lande – sowie weitere Einflüsse sind von Bedeutung.

Wir haben ein phänomenologisches Modell für die Entwicklung einer Kupferpatina entworfen. Unsere simulierte Oberfläche besteht aus mehreren Schichten; auf sie können verschiedene Operatoren (Computerprogramme) mit anschaulichen Namen wie "auftragen", "erodieren" und "polieren" einwirken. Zum Beispiel fügt der Operator "auftragen" der obersten Schicht etwas Oxid hinzu, und "erodieren" entspricht dem Abtragen lockeren Materials durch Wind oder Regen. Um die allmähliche Entstehung kleinteiliger, unregelmäßiger Variationen in der Schichtdicke zu simulieren, haben wir versuchsweise Patinaschichten nach den Regeln der fraktalen Geometrie aufwachsen lassen. Fraktale Muster haben sich vielfach zur realistischen Darstellung von Gebirgszügen, Pflanzen und anderen natürlichen Gebilden bewährt. Schließlich haben wir die Wechselwirkung des Lichts mit der Kupferpatina nach dem Kubelka-Munk-Modell simuliert (Bild Seite 74/75).

Einer der bedeutendsten Verwitterungsfaktoren ist das Regenwasser. Von manchen Flächen spült es den Schmutz herunter, während es ihn auf anderen Flächen ablegt. Um diese Prozesse zu simulieren, haben wir ein einfaches "Teilchen"-Modell für fließendes Wasser entwickelt.

Jedes Teilchen steht dabei für einen Wassertropfen. Seine Bewegung ist bestimmt durch Kräfte wie Schwerkraft, Reibung, Wind, Rauheit und Adhäsionsvermögen der Oberfläche. Über eine Reihe von Gleichungen beschreiben wir, inwieweit die Oberfläche Wasser absorbiert und mit welcher Rate Stoffe im Wasser gelöst werden oder ausfallen. Das Bild auf Seite 77 links zeigt, wie derart simuliertes Regenwasser auf eine simulierte Statue der klassischen Venus von Milo wirkt.

Wir haben die Statue dafür zunächst mit einer gleichmäßigen Schmutzschicht überzogen. Danach fiel der simulierte Regen, der in der Schmutzschicht merkliche Streifen hinterließ – mit einer gewissen Zufallskomponente durch die Wege der einzelnen Regentropfen. Schmutz sammelte sich dort an, wo die Oberfläche vor schnell fließendem Wasser geschützt war, etwa unter den Armen. Die Schmutzmuster zeichnen zudem den Faltenwurf des Umhangs nach: Die oberen Flächen der konvexen Falten sind sauber gewaschen und die unteren schmutzig. Nach unten zu wird das Muster gleichförmiger, da weniger Wasser dorthin gelangte. Das Bild auf S. 77 rechts zeigt die simulierte Regenwirkung auf eine Gebäudefassade.

Steinalt mit einem Mausklick


Beide Modelle – für die Kupferpatina wie für das Regenwasser – simulieren lediglich Oberflächeneffekte: Wirkungen in einer dünnen, oberflächennahen Schicht. Seit kurzem befassen wir uns mit "tiefer gehenden" Prozessen und Modellen, etwa für die Erosion von Gestein. Granit und einige andere Gesteine bestehen aus sehr kleinen, dicht gefügten Kristallen verschiedener Mineralien. Die Art dieses Gefüges ist charakteristisch für das Gestein und mitverantwortlich für seine Eigenschaften wie Härte, Farbe und Haltbarkeit.

Wie Metall ist auch Gestein den Angriffen der Luftschadstoffe ausgesetzt: Die Oxide von Kohlenstoff, Schwefel und Stickstoff, die in Wasser gelöst den sauren Regen ausmachen, dringen bis zu einer gewissen Tiefe in das Gestein ein. Sie reagieren dort mit den Mineralien, und die Reaktionsprodukte können wieder kristallisieren; allerdings ist die so entstehende Kruste im Allgemeinen weniger fest als die ursprüngliche Kristallstruktur. Schließlich brechen Stücke der Kruste weg und setzen damit frische Gesteinsoberflächen der weiteren Verwitterung aus. Insgesamt ergeben sich Farbveränderungen, Krusten, Erosion der Oberfläche und strukturelle Schäden wie Brüche.

Das Bild auf Seite 78 zeigt die Simulation einer kleinen Sphinx aus rotem Granit, die solchen Prozessen ausgesetzt war. Wir haben die Statue durch einen steinernen Hohlkörper mit einer erheblichen Wanddicke modelliert. Eine Funktion gibt zu jedem Punkt dieses Volumens an, welche Mineralien in welcher Konzentration an dieser Stelle vorhanden sind. Zu den simulierten Umwelteinflüssen gehören Wasser und Schadstoffe, die mit dem Hohlkörper an der Oberfläche und im Inneren chemisch reagieren. So erzeugt die Simulation eine komplizierte Mikrogeometrie der Oberfläche und einen verwickelten Kristallaufbau im Inneren. Für die bildliche Darstellung simulieren wir die Lichtstreuung im Gesteinsinneren durch stochastisches Ray-Tracing.

Ein notorisches Problem der Computergrafik ist der hohe Rechenaufwand. Man muss ständig nach Möglichkeiten Ausschau halten, Rechenschritte einzusparen, ohne dass darunter die Bildqualität leidet. So wäre es übertrieben und Zeit raubend, für eine verwitterte Statue, die nur im Hintergrund erscheint, eine detaillierte Beschreibung der Oberflächenrauheit zu verwenden. Auf die Entfernung ist ein Netz von Mikrofacetten, mit dem weit schneller zu rechnen ist, völlig ausreichend. Wenn jedoch bei einer Kamerafahrt die Statue in den Vordergrund gerät, muss man irgendwann zu einer aufwendigeren Darstellung übergehen (Kasten rechts).

Die Entwicklung von Materialmodellen in der Computergrafik steht noch am Anfang. Aber sie hat bereits einige wesentliche Fragen nach den Stärken und den Grenzen der Modelle aufgeworfen. Vieles von dem, was man unmittelbar sieht, ist aus physikalischer Sicht noch nicht verstanden. So ist die Korrosion von Metallen theoretisch und vor allem praktisch von außerordentlicher Bedeutung, aber die Wissenschaft ist von einem vollständigen Verständnis noch weit entfernt.

Für einen Kinofilm genügt es, wenn am Ende die Bilder richtig aussehen; welche Vorstellungen von den physikalischen Vorgängen in die Modellbildung eingeflossen sind, ist zweitrangig. Wenn allerdings die bildgebenden Verfahren auch dem Wissenschaftler zum Verständnis seines Gegenstandes helfen sollen, müssen die Modelle sachlich korrekt sein. Ein Biologe oder Dermatologe würde sich mit unserem Modell der Haut sicher nicht zufrieden geben, obwohl es sehr überzeugende Bilder liefert; denn Bestandteile wie Haarfollikel, Poren und Talgdrüsen sind nicht berücksichtigt.

Für die Zukunft wünscht man sich ein breites Sortiment von Modellen für Materialien mitsamt den Prozessen, die deren Erscheinungsbild verändern. Idealerweise sollten diese Modelle für den Nutzer übersichtlich in Palettenform angeordnet und auf Mausklick zugänglich sein – ähnlich wie heute schon die Bildchensammlungen auf Compact Disc (Clip-Art).

Je naturgetreuer die Materialmodelle und die dazugehörigen Programme werden, desto mehr Anwender können davon profitieren. Ein Fahrzeugdesigner wird vielleicht anstelle eines echten ein virtuelles Auto lackieren und im Zeitraffer beobachten, wie der Lack nach sechs Jahren aussieht. Architekten und Denkmalpfleger werden ihre Konservierungsmaßnahmen zunächst am Computermodell austesten. Schließlich könnten die Materialmodelle sogar helfen, ganz neue Erscheinungsformen zu kreieren – und damit die Welt nicht nur imitieren, sondern im Endeffekt auch verschönern.

Literaturhinweise

Modeling and Rendering of Metallic Patinas. Von J. Dorsey und P. Hanrahan in: Proceedings of SIGGRAPH 96. ACM, 1996.

Texturing and Modeling, 2. Auflage. Von D. S. Ebert et al. (Hg.). Morgan Kaufmann Publishers, 1998.

Modelling and Rendering of Weathered Stone. Von Julie Dorsey et al. in: Proceedings of SIGGRAPH 99. ACM, 1999.


Aus: Spektrum der Wissenschaft 4 / 2000, Seite 74
© Spektrum der Wissenschaft Verlagsgesellschaft mbH

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Infos
Weathering and Surface Appearance -> http://graphics.lcs.mit.edu/materials/
Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.