Direkt zum Inhalt
Login erforderlich
Dieser Artikel ist Abonnenten mit Zugriffsrechten für diese Ausgabe frei zugänglich.

Künstliche Intelligenz: Sprachbegabte Maschinen

2019 gelang KI-Forschern ein verblüffender Durchbruch: Seitdem übertreffen ihre Computer den Menschen bei Lesetests. Aber können diese Systeme tatsächlich Sätze verstehen?
Eine künstliche Intelligenz namens BERT revolutionierte die maschinelle Sprachverarbeitung. Um den Inhalt von Texten zu analysieren, muss sie gewaltige Datenmengen durcharbeiten.

Als Sam Bowman, Computerlinguist an der New York University, im Herbst 2017 die mageren Ergebnisse seiner eigenen Disziplin analysierte, trieb ihn vor allem eine Erkenntnis um: Nicht nur waren die Rechner weit davon entfernt, einen geschriebenen Text annähernd so zu verstehen wie ein Mensch; was fehlte, war außerdem ein brauchbarer Test für ihre Fähigkeiten. Eine Methode, mit der man unterschiedliche Ansätze vergleichen könnte – ein Benchmark, wie der Fachmann sagt. Kurz darauf hatte Bowman einen solchen Test entwickelt.

Im April 2018 veröffentlichte er gemeinsam mit Kollegen von der University of Washington und DeepMind, Googles eigener KI-Forschungsfirma, einen Fachartikel, in dem sie neun Aufgaben vorstellten. Anhand dieser sollte sich zeigen, ob ein Computer in der Lage ist, den Inhalt eines Textes zu verstehen. GLUE (General Language Understanding Evaluation, zu Deutsch etwa: Beurteilung des allgemeinen Sprachverständnisses) war so gestaltet, dass er »ziemlich genau all das abfragte, was nach Meinung der Forschergemeinde den Computer vor spannende Herausforderungen stellt«, erklärt Bowman. Für Menschen seien die Aufgaben allesamt »gut machbar«. Beispielsweise verlangt eine Unteraufgabe anzugeben, ob ein Satz wahr oder falsch ist, wobei der vorhergehende Satz das nötige Hintergrundwissen liefert. Wenn Sie aus dem Satz »Präsident Trump landete im Irak für einen sechstägigen Staatsbesuch« folgern können, dass der Satz »Präsident Trump ist auf Auslandsbesuch« wahr ist, haben Sie soeben bestanden!

Die Maschinen versagten reihenweise. Sogar nach allen Regeln der Kunst gebaute künstliche neuronale Netze kamen mit 69 von 100 Punkten nicht über eine Vier plus in Schulnoten hinaus. Das überraschte weder Bowman noch seine Koautoren. Zwar hatten ...

Kennen Sie schon …

Gehirn&Geist – Aus Fehlern lernen

Missgeschicke gehören zum Leben dazu. Unser Gehirn bemerkt sie oft blitzschnell. Wie registriert unser Gehirn, wenn wir uns irren, wie reagiert es darauf und warum lernt das Gehirn nicht immer aus den Fehlern? Daneben berichten wir, aus welchen Gründen manche Kinder den Kontakt zu ihren Eltern abbrechen und wie eine Annäherung vielleicht gelingen kann. Therapien von Morbus Alzheimer konzentrierten sich auf die Bekämpfung der Amyloid-Plaques. Doch man sollte dringend die Ablagerungen des Tau-Proteins stärker in den Blick nehmen. Die Folgen des hybriden Arbeitens rücken zunehmend in den Fokus der Forschung. Es führt zu einer höheren Zufriedenheit bei den Angestellten. Allerdings gibt es auch Nachteile. Bremst das Homeoffice die Kreativität? Daneben gehen wir der Frage nach, ob Tiere empathisch sind.

Spektrum - Die Woche – Warum soziale Medien weniger gefährlich sind, als wir denken

Spektrum Kompakt – Extremwetter

Auf der ganzen Welt sind Menschen von Extremwetterereignissen betroffen. In Zukunft werden sich diese aufgrund des Klimawandels häufen. So nehmen Starkregen, Dürren und Waldbrände auch in Europa zu. Welche Maßnahmen bei Extremwetter gibt es und wie zuverlässig lassen sich »freak events« vorhersagen?

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Quellen

Devlin, J. et al.: BERT: Pre-training of deep bidirectional transformers for language understanding. arXiv, 1810.04805, 2018

Heinzerling, B.: NLP’s Clever Hans moment has arrived. The Gradient, 26.08.2019

Niven, T., Kao, H.-Y.: Probing neural network comprehension of natural language arguments. arXiv, 1907.07355, 2019

Wang, A. et al.: GLUE: A multi-task benchmark and analysis platform for natural language understanding. arXiv, 1804.07461, 2018

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.