Je mehr, desto besser – die Anzahl der Pixel ist für die meisten Kamerakäufer ein wichtiges Feature. Oft noch viel wichtiger ist die Qualität des Objektivs. Doch bei einer neuen Fotografietechnik muss man sich um derlei Dinge keinerlei Gedanken mehr machen. Diese Kameras kommen gänzlich ohne Objektiv aus – und was noch wichtiger ist: Sie verfügen nur über einen einzigen Pixel.

Während die lichtempfindlichen Chips kommerzieller Kameras mit Millionen von Helligkeitssensoren vollgepackt sind, genügt bei den Ein-Pixel-Kameras ein einziger. Dass man damit trotzdem Bilder in Qualität und Auflösung eines herkömmlichen Apparats schießen kann, haben im Jahr 2006 Richard Baraniuk, Kevin Kelly und Kollegen der Rice University in Houston im Grundsatz demonstriert. In den vergangenen Monaten entwickelten nun gleich mehrere Forschergruppen das Verfahren weiter und zeigten, wie man auch noch auf das Objektiv verzichten und sogar 3-D-Aufnahmen anfertigen kann.

Wie eine Uralt-Kamera
© Bell Labs
(Ausschnitt)
 Bild vergrößernWie eine Uralt-Kamera
Der Prototyp der Forscher um Wilford ist noch eher unhandlich geraten und erinnert in seinem Aufbau an alte Kameras aus der Frühzeit der Fotografie.

Dabei scheint sich die Geschichte der Fotografie zu wiederholen. Wie einst zu Zeiten der Daguerreotypie müssen sich die Wissenschaftler mit stillstehenden Objekten zufrieden geben – bis das Bild im Kasten ist, vergeht einfach zu viel Zeit. Seinen Prototyp richtet der Forscher Paul Wilford von den Bell Labs im US-Bundesstaat New Jersey daher mal auf einen Stapel von Büchern, mal auf einen Fußball und mal auf eine Spielzeugkatze. Alles garantiert zuckungsfrei.

Kamerakiste mit Hightech-Innenleben

Überdies sieht der Apparat, den er zusammen mit seinen Kollegen für die aktuelle Veröffentlichung gebaut hat, den klobigen Kamerakästen des 19. Jahrhunderts zum Verwechseln ähnlich. Doch statt einer Linse ist an seinem vorderen Teil eine Matrix aus Flüssigkristallen angebracht, die man sich wie ein Schachbrett aus 302 mal 217 kleinen Blenden vorstellen kann. Jede einzelne davon öffnet und schließt sich auf Kommando eines Computers. So lassen sich spezifische Lichtschablonen einstellen, bei denen ein Teil der Blenden lichtdurchlässig ist, der andere Teil nicht. Hinter der Wand aus Blenden steckt schließlich der Sensor, der die Lichtinformationen aufnimmt.

Um ein Foto schießen zu können, genügt eine einzelne Belichtung allerdings bei Weitem nicht: Viele tausend Mal müssen sich die Flüssigkristallblenden öffnen und schließen. Die dabei aufgenommenen Helligkeitswerte gilt es anschließend am PC zu verrechnen. Je mehr Messwerte, desto höher aufgelöst ist das rekonstruierte Bild, bis schließlich die Maximalauflösung erreicht wird. Sie ist durch die Anzahl an Blenden begrenzt. Im Fall von Wilfords Ein-Pixel-Kamera können also 302 mal 217 gleich 65 534 Pixel pro Foto erreicht werden.

Bilder aus den Daten eines Sensors
© Bell Labs
(Ausschnitt)
 Bild vergrößernBilder aus den Daten eines einzigen Sensors
Beim Fotografieren muss sich das Team um Wilford noch auf stillstehende Objekte beschränken. Wie oft sie die Blendenmatrix öffnen müssen – und wie viele Daten sie dadurch sammeln –, bestimmt das Motiv: Für den Fußball reichte ein Achtel der Gesamtmenge, für Bücher und Katze wählte das Team 25 Prozent.

Es mag paradox klingen, dass man mit einem einzigen Sensor derart hochaufgelöste Bilder schießen kann, doch im Prinzip unterscheidet sich die zu Grunde liegende Theorie gar nicht so sehr von der einer Digitalkamera. Angenommen, nur eine der Matrixblenden ist offen, alle anderen geschlossen: Dann erkennt der Sensor zum einen natürlich, wie hell dieser Bildpunkt ist, zum anderen ist bekannt, wo dieser Bildpunkt liegt. Um ein Bild mit der höchsten Auflösung zu erhalten, müsste man folglich alle Blenden nacheinander öffnen und schließen.

Anders als bei der herkömmlichen Digitalkamera, auf deren Chip die Sensoren zweidimensional angeordnet sind, werden bei der Ein-Pixel-Kamera die Werte somit nicht räumlich, sondern abhängig von ihrem Messzeitpunkt verrechnet. Bei 65 534 Durchgängen würde jede Aufnahme allerdings extrem lange dauern.

Komprimieren beim Fotografieren

Um die Messzeit zu verkürzen, werden zusätzliche Annahmen über das Bild getroffen. So setzt man voraus, dass sich benachbarte Bildpunkte nicht stark voneinander unterscheiden. Durch diesen Trick rekonstruiert man das Originalbild mit nur einem Bruchteil der ursprünglichen Messungen. Schon bei 16 384 Messungen, das sind 25 Prozent der ursprünglich notwendigen Messreihen, kommt die Qualität des Bildes einer idealen Messung bereits recht nahe. Wie viele Messungen benötigt werden, hängt unter anderem davon ab, wie komplex das Motiv ist [1].

Das eigentliche Errechnen des Bilds übernimmt dann ein Algorithmus, der für ähnliche Signalverarbeitungsprobleme entwickelt wurde. Bei diesem so genannten "compressed sensing" geht es allgemein darum, weniger Daten zu erheben, als eigentlich nötig wären, etwa um einen Patienten nicht zu lange in der Röhre eines Magnetresonanztomografen liegen zu lassen. Dass man damit trotzdem einen passablen Bildeindruck gewinnen kann, kennt man auch von handelsüblichen Digitalkameras: Im Normalfall hantieren hier die Anwender ebenfalls mit komprimierten Dateien – im jpeg-Format beispielsweise –, die wesentlich weniger Informationen enthalten, als der Kamerachip eigentlich liefert.

Diese Kompression nimmt die Ein-Pixel-Kamera sozusagen bereits während der Aufnahme vor. Dank mathematischer Beziehungen der Datenpunkte untereinander lässt sich anschließend trotz der dünnen Informationslage auf das Ursprungsbild zurückrechnen. Wichtig ist dazu aber beispielsweise im Fall von Wilfords Kamera, dass der angewendete Algorithmus die Blenden so öffnet, dass eine möglichst große Abdeckung erreicht wird und nicht Bereiche systematisch unberücksicht bleiben. Sonst können die Wissenschaftler nicht gewährleisten, dass jede Messung eine neue Information über das Bild liefert.

Fehlerfreie Aufzeichnungen

Dass diese Kameras ohne Linse auskommen, sagt Wilford, macht die Technik potenziell billiger, leichter und frei von Abbildungsfehlern – denn die Bildqualität ist theoretisch nur durch die Auflösung der Blendenapparatur begrenzt. Zudem bedarf es eben keiner nachträglichen Datenkomprimierung wie bei herkömmlichen Digitalkameras, bei denen das Rohdatenbild für die gleiche Auflösung ungefähr 300 Prozent mehr Speicherplatz benötigt als bei der Ein-Pixel-Methode.

Stadien der 3-D-Bilderstellung
© University of Glasgow
(Ausschnitt)
 Bild vergrößernStadien der 3-D-Bilderstellung
Statt einer Blendenmatrix nutzen die Glasgower Forscher einen Projektor, mit dem sie ein Raster auf den abzufotografierenden Kunstkopf projizierten. Aus den Daten der vier Sensoren errechneten sie anschließend die dreidimensionale Gestalt mit Hilfe konventioneller Algorithmen.

Ein Vorteil, den man sich allerdings mit der rechenintensiven Bildrekonstruktion am PC erkaufen muss und damit, dass die eigentliche Messung erheblich länger dauert als bei herkömmlichen Fotoapparaten, trotz ausgeklügelter Algorithmen. Die Geschwindigkeit ist das Hauptproblem, mit dem sich Forscher wie Wilford bislang noch herumschlagen. Sie ist sowohl durch die Umschaltdauer der Flüssigkristallmatrix als auch durch die Reaktionszeit des Sensors begrenzt. Je nach Umfang der Messreihe kalkulieren die Wissenschaftler für eine einzige Aufnahme gut und gern einige Minuten bis hin zu einer Stunde.

Farbaufnahmen werden möglich, wenn spezielle Photodetektoren eingebaut werden, die dazu in der Lage sind, rotes, grünes und blaues Licht auseinander zu halten. Doch mit bunten Abbildungen allein gibt sich Wilfords Labor nicht zufrieden. Die Wissenschaftler erweiterten den Prototypen durch einen zusätzlichen Sensor, um gleichzeitig zwei Blickwinkel pro Blendenmuster aufzunehmen. Bei nahen Objekten können so Bilder aus zwei Perspektiven gleichzeitig aufgenommen werden. Bei weiter entfernten Objekten lassen sich die Messwerte beider Sensoren fusionieren. Im Endeffekt verdoppelt sich so die Anzahl der Messungen pro Zeiteinheit [2].

Vier Pixel für drei Dimensionen

Forscher der Universität in Glasgow verfolgten hingegen in ihrer aktuellen Studie einen leicht veränderten Ansatz: Sie experimentierten gleich mit vier räumlich voneinander getrennten Detektoren. Da sie in einem solchen Aufbau keine Blendenmatrix nutzen konnten, behalfen sich die Wissenschaftler um Miles Padgett damit, den zu fotografierenden Gegenstand mit abwechselnden Helligkeitsmustern zu beleuchten. Padgett vergleicht die Muster gerne mit Kreuzworträtseln – mal schwarze Felder, die der Sensor nicht sehen kann, mal weiße Felder, die Helligkeit- und Ortsinformationen liefern können.

Die zunächst zweidimensionalen Daten der Sensoren können dann zusammengerechnet werden – in Padgetts Fall zu der dreidimensionalen Darstellung eines menschlichen Kopfs [3]. Bei konventionellen 3-D-Stereoaufnahmen müssen die beiden Kameras minutiös kalibriert werden, um sicherzustellen, dass die viele Megapixel großen Bilder richtig aufeinander abgestimmt sind. In der Vier-Pixel-Version kann man sich derart aufwendige Justagen sparen, sagt Padgett. Und auch hier ist die maximal erreichbare Auflösung nicht durch die Sensoren begrenzt, sondern allein durch die Güte des Projektors, mit dem das Objekt beleuchtet wird – und natürlich durch die Geduld des Fotografen.

Vergleich mit herkömmlicher 3-D-Aufnahme
© University of Glasgow
(Ausschnitt)
 Bild vergrößernVergleich mit herkömmlicher 3-D-Aufnahme
Noch ist das Verfahren nicht perfekt: Der Abgleich zwischen der 4-Pixel-3-D-Aufnahme (grün) und dem Original (blau) zeigt einige Abweichungen.

Ob sich die Ein-Pixel-Technik im Alltag durchsetzen wird, sei einmal dahin gestellt. Zu gut, zu günstig sind die heutigen Modelle im Vergleich zu den Ein-Pixel-Prototypen. Zu effizient sind die siliziumbasierten Halbleitermaterialien, die sichtbares Licht direkt in Elektronen umwandeln können. Ihr Einsatzgebiet könnten Ein-Pixel-Kameras daher in Bereichen finden, in denen es weniger auf den schnellen Schnappschuss ankommt als auf die Qualität einer Aufnahme. Ohne Objektiv fallen nicht nur Abbildungsfehler wie Farb- und Bildverzerrungen weg, sondern es gibt außerdem keinen Bereich vor der Kamera, in dem Objekte unscharf sind. Vielleicht haben die Kameras auch dort eine Zukunft, wo die Hardware billig und der Datenspeicher klein gehalten werden muss.

Wo Silizium blind ist

Richtig interessant dürfte die Methode jedoch bei Wellenlängenbereichen werden, die das Silizium herkömmlicher Sensorchips nicht mehr richtig "sehen" kann. Denn hier wird es komplizierter, und das heißt teurer. So kostet beispielsweise eine Infrarotkamera hundertmal so viel wie eine normale Digitalkamera mit vergleichbarer Auflösung. Daher sind viele Forscher davon überzeugt, dass den Ein-Pixel-Kameras sowohl im kurzwelligen Bereich der Röntgenstrahlung als auch im langwelligen Infrarotbereich und darüber hinaus noch eine große Zukunft bevorsteht [4].

Auch Miles Padgett will seine 3-D-Technik auf unsichtbare Strahlung ausweiten. Er ist sich sicher: In Bereichen wie Geografie oder Medizin würden sich komplett neue Anwendungsgebiete erschließen. So könnte man detaillierte 3-D-Aufnahmen von Erdölreservoirs oder Tumoren machen, ohne davor auch nur ein Loch gebohrt oder einen Schnitt getätigt zu haben. Bilder, die für das bloße Digitalkameraauge unsichtbar sind.

Update 16.08.2013: In einer früheren Version dieses Artikels war an einzelnen Stellen das Rekonstruktionsverfahren ungenau dargestellt. Wir bitten dies zu entschuldigen. (Red.)