Direkt zum Inhalt

Deep Learning: Im »Kopf« von künstlichen neuronalen Netzen

Mittels Deep Learning vollbringt künstliche Intelligenz beeindruckende Leistungen. Doch selbst Forscher wissen nicht genau, was in den Maschinen vor sich geht, und wollen das nun ändern.
AI detectives are cracking open the black box of deep learning

Veröffentlicht am: 06.072017

Laufzeit: 0:04:55

Sprache: englisch

Untertitel: englisch

Science gilt neben der britischen Nature als wichtigstes naturwissenschaftliches Fachjournal. Herausgegeben wird es von der American Association for the Advancement of Science.

Deep Learning ist das aktuelle Zauberwort der Künstliche-Intelligenz-Forschung. Künstliche neuronale Netze, die sich grob an der Funktionsweise biologischer Nervensysteme orientieren und die mit dieser Methode trainiert werden, haben in den letzten Jahren eine erstaunliche Leistungsfähigkeit erreicht. Das chinesische Brettspiel Go galt lange als Bastion menschlicher Überlegenheit, bevor das Programm AlphaGo 2017 den amtierenden Weltmeister besiegte. Es nutzt ein künstliches neuronales Netz, das mit einer Deep-Learning-Strategie vorher ausgiebig geübt hatte. Apples künstliche sprachgesteuerte Assistentin Siri arbeitet, wenig überraschend, ebenfalls nach dieser Methode. Und in den selbstfahrenden Autos, die überall auf der Welt fleißig im Straßenverkehr üben, stecken ebenfalls tiefe Netzwerke künstlicher Nervenzellen.

Nun ist Go spielen eine Sache, Autos durch echten Straßenverkehr zu steuern aber eine ganz andere. Ein falscher Zug beim Brettspiel ist zu verschmerzen, ein Fahrfehler kann Menschenleben kosten. Der Fahrassistent des Tesla S, von der Herstellerfirma stolz als Autopilot bezeichnet, ist mehrfach in stehende Autos gefahren. Bevor man eine KI ans Steuer lässt, sollte man erst einmal genau wissen, wie sie ihre Entscheidungen trifft. Wie will man sonst sicher vermeiden, dass ein selbstfahrendes Auto trotz ausgiebigen Trainings völlig falsch reagiert und vielleicht einen Unfall verursacht? Das schön animierte Video auf dem YouTube-Kanal des Fachblatts »Science« macht deutlich, dass selbst KI-Forscher keineswegs wissen, was im Inneren der Netze so vor sich geht.

Zunächst einmal: Ähnlich wie ihre biologischen Vettern nehmen künstliche Neurone Eingaben von anderen Neuronen entgegen, verarbeiten sie und geben sie weiter. Künstliche neuronale Netze sind dabei in Schichten organisiert. Die Neurone der Eingangsschicht erhalten Daten von der Außenwelt. Im einfachsten Fall sind diese Elemente untereinander verschaltet und übernehmen so auch gleich die Verarbeitung und Ausgabe. In den tiefen Netzwerken ist die Struktur aber komplizierter. Auf die Eingangsschicht folgen zahlreiche verborgene Zwischenschichten. Am Ende steht die Ausgangsschicht, die ihre Ergebnisse der Außenwelt mitteilt.

Versuchte man anfangs, mit nur einer Zwischenschicht auszukommen, stellten Forscher vor rund zehn Jahren etwas überrascht fest, dass neuronale Netze mit vielen Zwischenschichten besser lernen. Das gilt besonders für diejenigen, die mit einer neu entwickelten Korrekturmethode, Backpropagation (Fehlerrückführung), arbeiten. Das heutige Deep Learning war erfunden. Backpropagation sorgt für schnelles Lernen, ist aber sehr rechenintensiv. Das Verfahren muss sehr viele einfache Rechenoperationen parallel durchführen. Zufällig ist das aber genau die Stärke von modernen Hochleistungsgrafikkarten. Die Implementierung der Deep-Learning-Algorithmen auf GPUs (graphics processing units) begründete den Siegeszug dieser KI-Methode.

Wie man nun feststellen kann, was genau in den unzähligen Zwischenschichten passiert, dazu macht das Video einige Vorschläge. So wäre es möglich, sich einzelne Neurone in den Zwischenschichten anzusehen, um festzustellen, welche Eingabe sie am stärksten aktiviert. Das hat zu erstaunlichen Resultaten geführt. In einem Bilderkennungssystem reagierte ein Neuron heftig auf Umrisse von Gesichtern. Das Netzwerk war jedoch nur darauf trainiert, Objekte auf Bildern zu erkennen, nicht etwa Menschen. Offenbar waren auf den Fotos, mit denen das Netzwerk zuvor trainiert worden war, auch viele Gesichter zu sehen gewesen. Eine andere Möglichkeit, etwas Transparenz in die Arbeitsweise der Netze zu bringen, besteht darin, gewisse Grundregeln gleich mitzutrainieren.

Das relativ kurze Video konzentriert sich auf diese beiden Varianten, aber inzwischen nutzen die Entwickler von KI-Systemen auch andere Möglichkeiten. Nehmen wir ein KI-Programm, das erkennen soll, ob eine Filmrezension positiv oder negativ ausgefallen ist. Um zu testen, woran das Programm seine Beurteilung festmacht, fängt man mit einem Text an, den es eindeutig korrekt klassifiziert hat. Dann verändert man immer wieder einzelne Worte oder Satzteile. Irgendwann wird dann klar, welche Worte oder welcher Aufbau der Sätze besonders bedeutsam sind. Das Vorkommen des Wortes »entsetzlich« könnte das Programm beispielsweise für ein sicheres Indiz dafür halten, dass der Rezensent den Film nicht mag.

Aber letztlich sind all diese Ansätze nur ein Notbehelf und bieten absolut keine Garantie dafür, dass eine hochgezüchtete künstliche Intelligenz im entscheidenden Moment richtig reagiert. Es kommt aber noch schlimmer: Je komplexer die Situation wird, desto weniger eindeutig lässt sich bestimmen, was richtig ist. Nehmen wir an, eine KI-gestützte Behandlung in der Notaufnahme eines Krankenhauses führt zum Tode des Patienten. Im Nachhinein stellen Gutachter fest, dass die KI falsche Entscheidungen getroffen hat. Aber die Behandlung des Patienten musste sofort beginnen, das System musste entscheiden, noch bevor es alle Möglichkeiten durchrechnen konnte. Hätte in so einem Fall ein Mensch vielleicht anders gehandelt – blitzschnell und rein intuitiv?

Je weiter die künstliche Intelligenz in unseren Alltag vordringt, desto wichtiger werden solche Fragen. Das Video bietet einen Einstieg in die Problematik, nicht mehr. Die gezeigten Methoden reichen letztlich nicht aus, um ein KI-System wirklich zu durchleuchten. Und sie helfen auch nur sehr begrenzt bei der Frage, wie man einen Fehler beheben will, wenn man ihn festgestellt hat. Denn bei einem herkömmlichen Programm reicht es oft schon, einen Befehl zu ändern. Doch ein falsch trainiertes KI-System muss mühsam umlernen – wie ein Mensch.

Lesermeinung

1 Beitrag anzeigen

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnervideos