Direkt zum Inhalt
Login erforderlich
Dieser Artikel ist Abonnenten mit Zugriffsrechten für diese Ausgabe frei zugänglich.

Künstliche Intelligenz: Was steckt hinter ChatGPT & Co?

Erste Sprachmodelle gab es schon in den 1950er Jahren. Doch erst durch den massiven Zuwachs an Computerleistung sind KI-Technologien wie DeepL und GPT heute in der Lage, menschliche Sprache praktisch fehlerfrei zu verarbeiten und zu produzieren. Entscheidend dabei war die Imitation einer ganz besonderen Fähigkeit unseres Gehirns.
Eine Hand hält ein Mobiltelefon mit Chatbot

Im Januar 1954 versammelten sich mehrere ausgewählte Pressevertreter in einem großen Raum der Georgetown University, der fast vollständig von einem Computer ausgefüllt wird: Die IBM-701-Maschine war der erste für wissenschaftliche Zwecke entwickelte Rechner und wog knapp zehn Tonnen. Das an sich war schon für viele Anwesende eine Sensation. Doch das überdimensionierte Gerät tat etwas Unvorstellbares: Mit russischen Beispielsätzen gefüttert, druckte es eine ins Englische übersetzte Version aus. »In fünf, vielleicht sogar nur drei Jahren wird sprachübergreifende Übersetzung durch elektronische Verfahren (…) wahrscheinlich möglich sein«, prognostizierte kurze Zeit später der Linguist Leon Dostert in einem Interview. Er leitete das Georgetown-Experiment, das sich maschineller Übersetzung widmete. Inzwischen wissen wir, dass sich Dostert um gut 60 Jahre verschätzt hatte.

Erst mit dem Aufkommen neuronaler Netze in den 2010er und 2020er Jahren wurden die Algorithmen leistungsfähig genug, um Texte verlässlich von einer Sprache in eine andere zu übertragen. »Komplizierte Zusammenhänge werden oft als ›Raketenwissenschaft‹ bezeichnet«, erklärt der Informatiker Aljoscha Burchardt vom Deutschen Forschungszentrum für künstliche Intelligenz (KI), der sich mit Sprachtechnologie beschäftigt. »Ich korrigiere die Leute dann oft, sie sollten lieber ›Übersetzungswissenschaft‹ sagen – denn Raketen sind einfach: Um auf den Mond zu fliegen, hat die Menschheit nur etwa zehn Jahre gebraucht …«

Kennen Sie schon …

Spektrum Kompakt – Quantencomputer - Neue Erkenntnisse und Verfahren

Diskutiert und selten gesehen: der Quantencomputer verspricht Fortschritt von Technik bis Medizin - doch stecken seine Berechnungen noch in den Kinderschuhen. Wie funktionieren die futuristischen Rechner und weshalb genügt der heimische PC ihren Zwecken teilweise nicht?

Spektrum - Die Woche – Europaparlament nimmt Renaturierungsgesetz an

In Straßburg wurde das weltweit erste Gesetz für eine umfassende Renaturierung geschädigter Ökosysteme verabschiedet. Was genau das für die europäische Landschaft bedeutet, lesen Sie in der aktuellen Ausgabe von »Spektrum – Die Woche«. Außerdem: was Cholesterin so gefährlich macht.

Spektrum - Die Woche – Wo Bäume mehr schaden als nützen

Drei Milliarden neue Bäume in der EU, zehn Milliarden in den USA, 70 Milliarden in China. Doch die ambitionierten Ziele für Aufforstungen könnten lokale Ökosysteme und Tierbestände gefährden. Außerdem in der aktuellen »Woche«: wieso der Hype um ultradünne Halbleitermaterialien berechtigt ist.

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Quellen

Brown, T. B. et al.: Language Models are Few-Shot Learners. ArXiv: 2005.14165, 2020

Gordin, M. D.: The Dostoevsky Machine in Georgetown: scientific translation in the Cold War. Annals of Science 73, 2016

Liu, P. J. et al.: Generating Wikipedia by Summarizing Long Sequences. ArXiv: 1801.10198, 2018

Strubell, E. et al.: Energy and Policy Considerations for Deep Learning in NLP. ArXiv: 1906.02243, 2019

Vaswani, A. et al.: Attention is all you need. ArXiv: 1706.03762, 2017

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.