Sei es das soziale Netzwerk Facebook, das seine User mittels künstlicher Intelligenz besser kennen lernen und Werbung noch gezielter platzieren will; oder die Vision von Google, den Menschen künftig Fragen zu beantworten, bevor diese sie stellen: Künstliche Intelligenz ist derzeit ein viel gefragtes Themenfeld. Ein Grund für das Wissenschaftsjournal "Science", künstliche Intelligenz in der aktuellen Ausgabe als Themenschwerpunkt zu behandeln. Schließlich wächst die Bedeutung des Themas auch in der Wissenschaft, und es fließen hohe Fördersummen in entsprechende Projekte. Ein mutmaßlich weiterer Grund: Die Sichtweise der Öffentlichkeit – von Furcht vor superintelligenten Robotern bis hin zu übergroßen Hoffnungen, was Maschinen alles leisten könnten – weicht bisweilen von der Realität der Forschung ab. In verschiedenen Artikeln beschreiben daher Forscher die aktuellen Herausforderungen für die künstliche Intelligenz – und ihre Begrenzungen.

Geschichte der intelligenten Computer

Die Wissenschaft erlebt derzeit ein großes Comeback eines Themas, das eigentlich bereits Mitte der 1960er Jahre auf der Tagesordnung stand. Bekanntestes Beispiel aus dieser Zeit ist sicherlich "Eliza": eine Software des Massachusetts Institute of Technology, die vorgab, ein Therapeut zu sein, der mit Menschen schriftlich kommunizierte. Elizas Entwickler hatten ihr eine Reihe von Regeln einprogrammiert, wie sie auf Fragen antworten konnte. So schien Eliza intelligent zu antworten und wirkte eine Zeit lang auch erstaunlich menschlich. In längeren Konversationen allerdings wird die Begrenztheit spürbar: Zu sehr wiederholt sich das Schema, nach dem Eliza beispielsweise Bemerkungen des Nutzers einfach in eine Frage umformuliert und an diesen zurückstellt. (Hier kann man Eliza testen.) Mangels technischer Möglichkeiten blieb es damals bei einer kleinen Episode Künstlicher-Intelligenz-Forschung.

Selbst lernende Maschinen werden Alltag

Während den Entwicklern vor einem halben Jahrhundert kaum etwas anders übrig blieb, als Regeln zu programmieren, auf deren Grundlage Maschinen entscheiden sollten, entstehen heute so genannte selbst lernende Systeme. Computer zu bauen, die sich automatisch auf der Grundlage von Erfahrung verbessern, sei das "Herz der künstlichen Intelligenz", so Michael Jordan von der University of California und Tom Mitchell von der Mellon University in Pittsburgh. Maschinelles Lernen habe in den vergangenen beiden Jahrzehnten "dramatische Fortschritte gemacht". Der Katalysator dahinter: die massenhafte Onlineverfügbarkeit von Daten und die sinkenden Kosten leistungsstarker Computer, die diese automatisiert auswerten können.

"Viele Entwickler von KI-Systemen erkennen jetzt, dass es für zahlreiche Anwendungen leichter sein kann, ein System zu trainieren, indem sie ihm Beispiele von erwartetem Eingabe-Ausgabe-Verhalten zeigen, als das händisch zu programmieren und dabei alle erwünschten Antworten auf alle denkbaren Eingaben zu berücksichtigen", schreiben die Forscher weiter. Die Maschinen werden, vereinfacht gesagt, mit vorhandenen Daten gefüttert, beispielsweise mit inhaltsgleichen Texten in verschiedenen Sprachen, erkennen darin Muster und lernen daraus die Regeln für eine automatische Übersetzung. Je mehr Daten vorhanden sind, umso zuverlässiger decken sie alle Fälle ab, an die ein menschlicher Programmierer vielleicht nicht gedacht hat. Jede Regel einzeln zu programmieren ist zudem eine aufwändige Fleißarbeit.

Menschliche Sprache als Herausforderung

Die Fähigkeit von Computern, aus Fremdsprachen zu übersetzen, sei ein guter Maßstab für künstliche Intelligenz, schreiben Julia Hirschberg von der Columbia University und Christopher M. Manning von der Standford University. Das erfordere nicht nur die Fähigkeit, Sätze zu analysieren, sondern auch ein Verständnis von Kontext. Lange bevor der Begriff "Big Data" eingeführt worden sei, habe die Computerlinguistik bereits Anfang der 1980er Jahre begonnen, mittels großer Mengen an Sprachdaten Modelle der menschlichen Sprache zu entwerfen. Dennoch seien die Hoffnungen der Forscher immer wieder enttäuscht worden: Das Sprachverständnis von Robotern sei nach wie vor weit von den Vorbildern in Sciencefiction-Filmen entfernt.

Ein Strudel aus Nullen und Einsen
© fotolia / 3dkombinat
(Ausschnitt)
 Bild vergrößernIm Strudel der Software
Wohin führt uns die Weiterentwicklung von intelligenter Software?

Erst in den vergangenen fünf Jahren habe sich die Situation verbessert, so dass zumindest junge Leute heute wie selbstverständlich mit ihrem Smartphone sprechen. Das kommerzielle Interesse an maschineller Sprachverarbeitung sei ebenfalls gewachsen. "Aus dieser Perspektive ist es aber wichtig zu bedenken, dass die Entwicklung wahrscheinlichkeitstheoretischer Ansätze für Sprache nicht einfach das Lösen technischer Probleme ist", betonen die Autoren: Regeln menschlicher Sprache, die Computer in großen Datenmengen finden, werden wiederum in der Linguistik reflektiert. Dadurch werde die Sprachwissenschaft ihrerseits empirischer und verfolge quantitativere Ansätze.

Der Mensch bleibt wichtig

Auch wenn die Forscher mit rein datenbasiert selbst lernenden Systemen erstaunlich gute Ergebnisse erzielen, erleben sie derzeit deren Begrenzung. Was Menschen über viele Jahre hinweg als Weltwissen ansammeln – ein intuitives Gespür für Zusammenhänge, die uns so selbstverständlich erscheinen –, müssen Computer aufwändig lernen. Computerlinguisten beobachten aktuell, dass maschinelle Übersetzungen besser werden, wenn ein automatisches Modell und der Input von Menschen zusammengebracht werden. "Maschinelle Übersetzungen sind nicht unbedingt eine Aufgabe, die Maschinen allein erledigen sollten", schreiben Hirschberg und Manning. Vielmehr sei eine Zusammenarbeit von Mensch und Maschine denkbar, die menschliche Fähigkeiten nutzt anstatt sie zu ersetzen.

Auch Jordan und Mitchell sehen einen Trend hin zu neuen maschinellen Lernmethoden, die in der Lage sind, kollaborativ mit Menschen zusammenzuarbeiten, um gemeinsam komplexe Datensätze zu analysieren. Computer können raffinierte statistische Effekte erkennen. Kombiniert mit dem vielfältigen Hintergrundwissen der Menschen können so plausible Erklärungen und neue Hypothesen entstehen.

Auch eine weitere Entscheidung muss der Mensch treffen: "Wie jede machtvolle Technologie wirft auch maschinelles Lernen die Frage auf, welche ihrer Anwendungen die Gesellschaft nutzen will und welche nicht", so Jordan und Mitchell. Zudem stelle sich die Frage, wem die Daten in Zukunft gehören sollen und wer von deren Nutzen profitiert. Viele Daten sind aktuell in den Händen großer Unternehmen, die sie auswerten, um ihren Profit zu erhöhen. "Die Daten müssten ein öffentliches Gut sein, damit die Gesellschaft einen Nutzen daraus ziehen kann", fordern die beiden Forscher. Aktuell aber habe die Gesellschaft angesichts von Gesetzen, Sitten und kulturellen Faktoren gar nicht die Möglichkeit, von den bereits online vorhandenen Daten zu profitieren, selbst wenn sie wollte – "obwohl es Daten über jeden von uns sind". Maschinelles Lernen sei eine der Technologien des 21. Jahrhunderts, die das Leben stark verändern. "Es erscheint unumgänglich, dass die Gesellschaft jetzt darüber nachzudenken beginnt, wie sie den maximalen Nutzen daraus zieht."

Übertrumpfen uns die Maschinen in Zukunft?

Werden Maschinen eines Tages schlauer sein als wir selbst? Nach der Lektüre der aktuellen "Science"-Artikel kann man getrost davon ausgehen, dass dies zumindest noch in weiter Ferne ist. Bis dahin sind viel zu viele grundlegende Probleme zu lösen: Das fängt an beim Weltwissen, das uns Menschen so natürlich und naheliegend erscheint und das gleichzeitig so unlogisch, so uneindeutig und teilweise so unvorhersehbar ist, dass Maschinen es kaum berechnen können.

Und es reicht bis hin zur noch holperigen Kommunikation mit Maschinen, die uns Menschen immer wieder daran erinnert, dass wir es nicht mit unseresgleichen zu tun haben. Trotzdem, warnt Stuart Russells, einer der Pioniere der künstlichen Intelligenz im "Science"-Interview, sollten wir uns darauf nicht verlassen: "Studenten müssen deshalb heute lernen, dass die Ausrichtung künstlicher Intelligenz entlang menschlicher Werte zentral ist für das Feld." Schließlich gehe eine große Gefahr davon aus, wenn künstliche Intelligenz menschliche Werte falsch interpretiere oder anwende. All jenen, die solche Bedenken wegwischen mit dem Argument, dass künstliche Intelligenz nie auf das Niveau menschlicher Intelligenz oder gar darüber kommen werde, sagt Russell: "Das ist wie auf eine Klippe zuzufahren und zu sagen: Lasst uns hoffen, dass bald das Benzin leer ist."