Direkt zum Inhalt
Login erforderlich
Dieser Artikel ist Abonnenten mit Zugriffsrechten für diese Ausgabe frei zugänglich.

Informatik: Computer-Halluzinationen

Neuronale Netze erkennen nicht nur vorgelegte Bilder sehr treffsicher – sie produzieren mit Hilfe ihres reichen Erfahrungsschatzes auch neue. Diese freilich sehen aus wie Ausgeburten einer kranken Fantasie.
Computerbearbeitete Sandsteinformationen in New Mexico

Gesehene Gegenstände zu erkennen, zählt zu den Stärken des menschlichen Gehirns. Wir können einen Stapel Fotos durchblättern und ohne Nachdenken sagen, was darauf abgebildet ist: Hund, Kuchen, Fahrrad, Teekanne … Wie wir diese Höchstleistung vollbringen, wüssten wir allerdings nicht zu erklären. Wenn ich eine Rose sehe, werden gewisse Neurone im visuellen Kortex meines Gehirns aktiv; bei einer Tulpe sind es andere. Welche Unterschiede zwischen beiden Blumen lösen die verschiedenen Reaktionen aus?

Niemand mag sich Elektroden in den Schädel stechen lassen, um diese Frage durch Experimente zu beantworten. Wie wäre es, ersatzweise ein künstliches Gehirn zu untersuchen? Neuerdings erreichen die Computer in der Bilderkennung die Leistung menschlicher Experten. Andererseits sind sie in allen Einzelheiten von Menschen konstruiert – also müssten wir doch angeben können, wie sie funktionieren. Aber das stimmt nicht. Die maschinellen Bild­er­ken­nungs­sys­teme stellen sich als fast so undurchschaubar heraus wie die natürlichen. Es handelt sich um "tiefe neuronale Netze" Sie sind den Strukturen im echten Gehirn nachempfunden und haben ihre Fähigkeiten nicht einprogrammiert bekommen, sondern an Beispielen gelernt. Nun steckt ihr Wissen über Bilder in großen Zahlen­tabellen; und mit denen kann kein Mensch unmittelbar etwas anfangen.  ...

Kennen Sie schon …

Spektrum der Wissenschaft – Künstliche Intelligenz: Künstliche Intelligenz

Informatik: Der Siegeszug der neuronalen Netze • Lernalgorithmen: Maschinen imitieren kindlichen Verstand • Ethik: Ein Roboter muss auch Nein sagen können

Spektrum Kompakt – Algorithmen im Alltag

Sie unterstützen bei der ärztlichen Diagnose, bringen Filmstars ins Kino, die nie am Set waren, steuern im Hintergrund, was wir als Empfehlungen auf unseren Monitoren sehen, und vieles mehr: Algorithmen, klar formulierte Abfolgen einzelner Schritte in Programmen, stecken überall in unserem Alltag.

Spektrum Kompakt – Science not fiction - Die Welt der Technik

Ist das noch Sciencefiction oder schon Realität? Bei manchen technischen Fortschritten erleben wir gerade den Übergang. Und auch wenn Warp-Antrieb oder Städte im All noch auf sich warten lassen: Die theoretischen Grundlagen werden längst in der Wissenschaft diskutiert.

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Quellen

Mahendran, A., Vedaldi, A.: Under­standing Deep Image Representations by Inverting them. 2014

Mordvintsev, A. et al.: Inceptionism: Going Deeper into Neural Networks. 2015

Nguyen, A. et al.: Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images. In: Computer Vision and Pattern Recog­nition 15, IEEE, 2015

Szegedy, C. et al.: Intriguing Properties of Neural Networks. 2013.

Yosinski, J. et al.: Understanding Neural Networks through Deep Visualization. In: 31st International Conference on Machine Learning, 2015.