Direkt zum Inhalt
Login erforderlich
Dieser Artikel ist Abonnenten mit Zugriffsrechten für diese Ausgabe frei zugänglich.

Künstliche Intelligenz: Sprachbegabte Maschinen

2019 gelang KI-Forschern ein verblüffender Durchbruch: Seitdem übertreffen ihre Computer den Menschen bei Lesetests. Aber können diese Systeme tatsächlich Sätze verstehen?
Eine künstliche Intelligenz namens BERT revolutionierte die maschinelle Sprachverarbeitung. Um den Inhalt von Texten zu analysieren, muss sie gewaltige Datenmengen durcharbeiten.

Als Sam Bowman, Computerlinguist an der New York University, im Herbst 2017 die mageren Ergebnisse seiner eigenen Disziplin analysierte, trieb ihn vor allem eine Erkenntnis um: Nicht nur waren die Rechner weit davon entfernt, einen geschriebenen Text annähernd so zu verstehen wie ein Mensch; was fehlte, war außerdem ein brauchbarer Test für ihre Fähigkeiten. Eine Methode, mit der man unterschiedliche Ansätze vergleichen könnte – ein Benchmark, wie der Fachmann sagt. Kurz darauf hatte Bowman einen solchen Test entwickelt.

Im April 2018 veröffentlichte er gemeinsam mit Kollegen von der University of Washington und DeepMind, Googles eigener KI-Forschungsfirma, einen Fachartikel, in dem sie neun Aufgaben vorstellten. Anhand dieser sollte sich zeigen, ob ein Computer in der Lage ist, den Inhalt eines Textes zu verstehen. GLUE (General Language Understanding Evaluation, zu Deutsch etwa: Beurteilung des allgemeinen Sprachverständnisses) war so gestaltet, dass er »ziemlich genau all das abfragte, was nach Meinung der Forschergemeinde den Computer vor spannende Herausforderungen stellt«, erklärt Bowman. Für Menschen seien die Aufgaben allesamt »gut machbar«. Beispielsweise verlangt eine Unteraufgabe anzugeben, ob ein Satz wahr oder falsch ist, wobei der vorhergehende Satz das nötige Hintergrundwissen liefert. Wenn Sie aus dem Satz »Präsident Trump landete im Irak für einen sechstägigen Staatsbesuch« folgern können, dass der Satz »Präsident Trump ist auf Auslandsbesuch« wahr ist, haben Sie soeben bestanden!

Die Maschinen versagten reihenweise. Sogar nach allen Regeln der Kunst gebaute künstliche neuronale Netze kamen mit 69 von 100 Punkten nicht über eine Vier plus in Schulnoten hinaus. Das überraschte weder Bowman noch seine Koautoren. Zwar hatten ...

Kennen Sie schon …

Spektrum Kompakt – Quantencomputer - Neue Erkenntnisse und Verfahren

Diskutiert und selten gesehen: der Quantencomputer verspricht Fortschritt von Technik bis Medizin - doch stecken seine Berechnungen noch in den Kinderschuhen. Wie funktionieren die futuristischen Rechner und weshalb genügt der heimische PC ihren Zwecken teilweise nicht?

Spektrum - Die Woche – Die Macht der Gute-Nacht-Geschichte

Vorlesen fördert nicht nur das Buchstabenverständnis, es ist sogar ein wichtiger Grundstein für die soziale Entwicklung. Was die Gute-Nacht-Geschichte alles bewirken kann, lesen Sie in der aktuellen »Woche«. Außerdem: Die Écalle-Theorie bringt endliche Antworten auf unendlich scheinende Fragen.

Spektrum - Die Woche – Wo Bäume mehr schaden als nützen

Drei Milliarden neue Bäume in der EU, zehn Milliarden in den USA, 70 Milliarden in China. Doch die ambitionierten Ziele für Aufforstungen könnten lokale Ökosysteme und Tierbestände gefährden. Außerdem in der aktuellen »Woche«: wieso der Hype um ultradünne Halbleitermaterialien berechtigt ist.

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Quellen

Devlin, J. et al.: BERT: Pre-training of deep bidirectional transformers for language understanding. arXiv, 1810.04805, 2018

Heinzerling, B.: NLP’s Clever Hans moment has arrived. The Gradient, 26.08.2019

Niven, T., Kao, H.-Y.: Probing neural network comprehension of natural language arguments. arXiv, 1907.07355, 2019

Wang, A. et al.: GLUE: A multi-task benchmark and analysis platform for natural language understanding. arXiv, 1804.07461, 2018

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.