Direkt zum Inhalt
Login erforderlich
Dieser Artikel ist Abonnenten mit Zugriffsrechten für diese Ausgabe frei zugänglich.

Künstliche Intelligenz: Sprachbegabte Maschinen

2019 gelang KI-Forschern ein verblüffender Durchbruch: Seitdem übertreffen ihre Computer den Menschen bei Lesetests. Aber können diese Systeme tatsächlich Sätze verstehen?
Eine künstliche Intelligenz namens BERT revolutionierte die maschinelle Sprachverarbeitung. Um den Inhalt von Texten zu analysieren, muss sie gewaltige Datenmengen durcharbeiten.

Als Sam Bowman, Computerlinguist an der New York University, im Herbst 2017 die mageren Ergebnisse seiner eigenen Disziplin analysierte, trieb ihn vor allem eine Erkenntnis um: Nicht nur waren die Rechner weit davon entfernt, einen geschriebenen Text annähernd so zu verstehen wie ein Mensch; was fehlte, war außerdem ein brauchbarer Test für ihre Fähigkeiten. Eine Methode, mit der man unterschiedliche Ansätze vergleichen könnte – ein Benchmark, wie der Fachmann sagt. Kurz darauf hatte Bowman einen solchen Test entwickelt.

Im April 2018 veröffentlichte er gemeinsam mit Kollegen von der University of Washington und DeepMind, Googles eigener KI-Forschungsfirma, einen Fachartikel, in dem sie neun Aufgaben vorstellten. Anhand dieser sollte sich zeigen, ob ein Computer in der Lage ist, den Inhalt eines Textes zu verstehen. GLUE (General Language Understanding Evaluation, zu Deutsch etwa: Beurteilung des allgemeinen Sprachverständnisses) war so gestaltet, dass er »ziemlich genau all das abfragte, was nach Meinung der Forschergemeinde den Computer vor spannende Herausforderungen stellt«, erklärt Bowman. Für Menschen seien die Aufgaben allesamt »gut machbar«. Beispielsweise verlangt eine Unteraufgabe anzugeben, ob ein Satz wahr oder falsch ist, wobei der vorhergehende Satz das nötige Hintergrundwissen liefert. Wenn Sie aus dem Satz »Präsident Trump landete im Irak für einen sechstägigen Staatsbesuch« folgern können, dass der Satz »Präsident Trump ist auf Auslandsbesuch« wahr ist, haben Sie soeben bestanden!

Die Maschinen versagten reihenweise. Sogar nach allen Regeln der Kunst gebaute künstliche neuronale Netze kamen mit 69 von 100 Punkten nicht über eine Vier plus in Schulnoten hinaus. Das überraschte weder Bowman noch seine Koautoren. Zwar hatten ...

Kennen Sie schon …

Spektrum Kompakt – Proteine - Die Arbeitskräfte der Zelle

Betrachtet man Zellen als eine Art Stadt, dann sind die Proteine darin so etwas wie die Arbeitskräfte in der essenziellen Infrastruktur: Ohne funktionierende Müllabfuhr, ÖPNV oder Trinkwasserversorgung bricht das System schnell zusammen.

Spektrum - Die Woche – Die Zebras mit den großen Ohren

Grevyzebras sind besonders hübsch und besonders selten. Die meisten gibt es in Zentralkenia. Noch. Wegen jahrelanger Dürre kämpfen Mensch und Tier um jeden Grashalm. Bis aufs Blut.

Spektrum Kompakt – Mensch und Maschine - Gehirn und KI im Vergleich

Maschinelles Lernen von künstlichen neuronalen Netze soll die Funktionsweise des Gehirns nachahmen. Dabei bringt die KI-Forschung auch Spannendes für die Neurowissenschaften zu Tage. Und wirft grundlegende philosophische Fragen auf.

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Quellen

Devlin, J. et al.: BERT: Pre-training of deep bidirectional transformers for language understanding. arXiv, 1810.04805, 2018

Heinzerling, B.: NLP’s Clever Hans moment has arrived. The Gradient, 26.08.2019

Niven, T., Kao, H.-Y.: Probing neural network comprehension of natural language arguments. arXiv, 1907.07355, 2019

Wang, A. et al.: GLUE: A multi-task benchmark and analysis platform for natural language understanding. arXiv, 1804.07461, 2018