Direkt zum Inhalt

ChatGPT-Konkurrenz: Claude 2 verarbeitet ganze Bücher in Sekunden

Bis zu 75 000 Wörter: Die ChatGPT-Alternative Claude 2 kann sich die bislang längsten Inhalte merken. Damit gewinnt das KI-Unternehmen Anthropic einen Vorsprung in der Textverarbeitung.
Aufgeschlagenes Buch mit leuchtenden Seiten
Keine Zeit gehabt, das neueste Buch zu lesen? Die KI Claude 2 kann es für Sie zusammenfassen – und mit anderen Werken vergleichen.

Das amerikanische KI-Forschungsunternehmen Anthropic hat am 11. Juli 2023 die neue Version seiner ChatGPT-Alternative herausgebracht: Claude 2 kann sich besonders lange Inhalte merken und ganze Bücher einverleiben. Das KI-System kann bis zu 100 000 »Token« verarbeiten, was im Englischen Texten mit einem Umfang von etwa 75 000 Wörtern entspricht. Langfristig wollen die OpenAI-Aussteiger, die Anthropic 2021 gegründet haben, das Textvolumen der ChatGPT-Alternative sogar verdoppeln auf 200 000 Token (150 000  Wörter im Englischen). Daraus ergeben sich enorme Vorteile: Die Fähigkeit, so große Textmengen einzuspeisen, erlaubt das Verarbeiten ganzer Bücher. Zudem kann Claude 2 offenbar auch unterschiedliche Texte gleichzeitig bearbeiten und vergleichend auswerten.

Erst Mitte Mai 2023 hatte Anthropic den hauseigenen ChatGPT-Konkurrenten bereits beschleunigt: Claude 1.3 konnte Dokumente und Bücher mit hunderten Seiten Umfang binnen Sekunden einlesen. Nach Angaben des Unternehmens brauchte das KI-System für Texte, für die ein Mensch etwa fünf Stunden reiner Lesezeit benötigt, nur etwa 22 Sekunden – vom Erstkontakt mit dem unbekannten Text bis zum Beantworten inhaltlicher Fragen.

Wie die Vorgängerversion vermag Claude 2, Dokumente zusammenzufassen und semantisch zu durchsuchen, Texte zu schreiben, zu programmieren und Fragen zu bestimmten Themen zu beantworten. Bei der Claude-Serie handelt es sich wie bei ChatGPT um »Transformermodelle«, eine Art von KI, die neben vielen Trainingsdaten auch mit menschlichem Feedback trainiert wurde. Zusätzlich legt Anthropic seine Modelle auf bestimmte Grundprinzipien fest, die die Ausgaben harmloser und hilfreicher machen sollen, was das Unternehmen intern als »Constitutional AI« (eine Art KI-Verfassung) bezeichnet. Das Entwicklungsteam gibt an, gegenüber vorherigen Modellversionen keine großen Änderungen vorgenommen zu haben und hält sich bedeckt zur Frage, wieso Claude 2 derart große Eingaben verarbeiten kann.

Zum jetzigen Zeitpunkt befindet sich die neue Version noch im Betastadium und wurde zunächst exklusiv in den USA und in Großbritannien freigegeben, in der Browserversion und für Kunden mit kostenpflichtigem Zugang über die Programmierschnittstelle (API). Wer trotzdem schon einmal einen Blick darauf werfen möchte, kann derzeit über den Drittanbieter Poe.com das nicht öffentliche System in seinen verschiedenen Varianten am einfachsten testen.

Besser in Mathe und Programmieren

Einige Geschäftskunden wie die Betreiber des KI-Schreibprogramms Jasper sollen bereits begonnen haben, Claude 2 in ihre Produkte einzubinden. Ähnlich wie Sam Altmans Team beim US-amerikanischen Unternehmen OpenAI, das ChatGPT entwickelt hat, argumentiert auch der für die Markteinführung verantwortliche Anthropic-Mitarbeiter Sandy Banerjee gegenüber dem IT-Portal TechCrunch, dass es wichtig sei, die KI-Systeme im Livebetrieb zu beobachten. Somit dürfte die Betaphase in ausgewählten Ländern auch als Testballon für die Entwicklungsabteilung dienen. Ob Claude 2 den bisherigen Versionen überlegen ist, wie Anthropic angibt, lässt sich mangels Zugriff derzeit nicht unabhängig überprüfen.

Der Ankündigung durch Anthropic zufolge soll Claude 2 Matheaufgaben korrekt lösen können und bei einschlägigen Schulabschlussprüfungen um rund drei Prozentpunkte über der Vorgängerversion Claude 1.3 liegen. Auch die Programmierfähigkeiten sollen sich verbessert haben, wobei Anthropic über 70 Prozent der Fähigkeiten menschlicher Programmierer bei einem Testlauf (Codex Human Level Python coding test) erreichen soll. Claude 1.3 lag hier bei 56 Prozent.

Kein Internetzugang, dafür Trainingsdaten aus 2023

Wie Banerjee mitteilt, habe Anthropic vorrangig an »Reasoning« (dem Ziehen logischer Schlüsse) und »Self-Awareness« (Selbstbewusstsein) des Modells gearbeitet – mit Letzterem meinen die KI-Forscherinnen und Forscher jedoch kein Bewusstsein im Sinne eines menschlichen Selbst, sondern das genauere Befolgen von Anweisungen.

Testnutzer konnten bereits wenige Stunden nach der Markteinführung Claude 2 dazu bringen, schädliche Antworten zu geben

Spezifische Textverarbeitung etwa beim korrekten Formatieren in mehrere Standardformate soll mittlerweile reibungslos funktionieren, etwa in JSON (für den Dateiaustausch zwischen Computern in menschenlesbarer Form), XML (Markup-Sprache und Dateiformat für das Aufbewahren, Übermitteln und Wiederherstellen strukturierter Daten), YAML (eine datenorientierte Sprachstruktur für das Eingeben in Softwareanwendungen) und Markdown (eine vereinfachte Auszeichnungssprache zum Formatieren von Texten im Web).

Auch auf der Seite der Trainingsdaten habe das Anthropic-Team laut Ankündigung nachgelegt. So habe es Claude 2 mit einem aktuelleren Datensatz trainiert, der neben einer Mischung zahlreicher Webseiten, lizensierter Datensätze und Nutzerdaten von Freiwilligen bis ins frühe Jahr 2023 hineinreicht. Zum Vergleich: Die Datenbasis von ChatGPT bricht im Sommer 2021 ab. Etwa ein Zehntel der Daten für Claude 2 soll in anderen Sprachen als Englisch verfasst sein. Anders als das neueste KI-Modell von OpenAI, GPT-4, kann Claude 2 allerdings nicht das Internet durchsuchen. Banerjee verriet TechCrunch auch, dass Claude 2 theoretisch doppelt so viele Token wie derzeit praktisch möglich verarbeiten könnte. Allerdings sind solche Eingaben in der Betaversion noch nicht freigegeben und zum jetzigen Zeitpunkt ist offen, wann Anthropic diesen Funktionsumfang den Nutzern zugänglich macht.

Austricksen der Sicherheitsschranken weiterhin möglich

Eine Reihe von Nachteilen gilt es ebenfalls im Blick zu behalten: Wie alle bisherigen großen Sprachmodelle neigte Claude 1.3 bislang zum Fabulieren und Erfinden von Fakten sowie zum Verallgemeinern von Inhalten mit Verzerrungen. Zudem lassen sich die Sicherheitsvorkehrungen durch geschicktes Prompten austricksen: So kursieren im Netz Beispiele, wie Claude 1.3 das Herstellen von Drogen oder Waffen erklärt. Ob die neue Version gegen unerwünschte Nutzung resistenter geworden ist, ist zum jetzigen Zeitpunkt unklar. Anthropic selbst teilt in der Ankündigung mit, dass Claude 2 etwa doppelt so gut darin sei, »harmlose« Antworten zu generieren. Das Unternehmen hatte das Modell einem internen Test unterworfen, in dem Entwicklerinnen und Entwickler das Modell gezielt bösartigen und schädlichen Anweisungen aussetzen, um Schwachstellen zu finden (Red Teaming). Solche Proben laufen teils automatisiert, teils manuell.

Offenbar gelang es findigen Testnutzern jedoch bereits in den ersten Stunden nach der Markteinführung, durch geschickte Anweisungen Claude 2 dazu zu bringen, schädliche Antworten zu geben. Das sei zwar schwieriger geworden, aber weiterhin möglich und in der Masse der Anfragen und Antworten dann durchaus ein Problem. Anthropic selbst scheint sich dessen bewusst zu sein. So rät das Unternehmen davon ab, Claude 2 für Anwendungen zu nutzen, bei denen eine einzelne falsche Antwort Schaden anrichten könnte – etwa in Bereichen, in denen es um Gesundheit, Wohlbefinden und psychische Ausnahmesituationen gehe.

Anthropics hochfliegende Pläne

Intern setzt man auf eine Eigenentwicklung namens »Constitutional AI«, die KI-Modelle wie Claude anhand mehrerer Grundprinzipien an bestimmte moralische Werte binden und den generierten Text entsprechend einstufen soll. Das größte Problem von Anbietern wie Anthropic ist derzeit, dass sich das Verhalten von Sprachmodellen bei zunehmender Größe und generalistischem Ansatz schwer vorhersagen lässt. Das Geschäftsmodell stellt KI-Sicherheit und »Alignment« (das Abstimmen auf menschliche Anforderungen und Werte) ins Zentrum. Sie wollen damit die Ausgabe hilfreicher und harmloser machen.

Um ihr größtes Sprachmodell zu finanzieren, bräuchte Anthropic noch weitere 3,5 Milliarden US-Dollar

Gegenüber Investoren äußerte Anthropic sein langfristiges Ziel: Das Erstellen eines fortschrittlichen Algorithmus, mit dem KI-Systeme ihr Selbstlernen verbessern. Solche Algorithmen sind zum Beispiel für virtuelle persönliche Assistenten gedacht, die zahlreiche Arbeiten repetitiver, aber auch kreativer Art übernehmen könnten, etwa das Beantworten von E-Mails und Teile von Forschung, die mit dem Auswerten großer Textmengen zusammenhängen. Explainable AI, eine KI-Form, die ihre Ausgaben erklären kann, soll dabei laut Anthropic eine Rolle spielen.

Hinter Anthropic steht Google als Hauptinvestor, ähnlich wie hinter OpenAI der Tech-Gigant Microsoft steht. Der vormalige Leiter der KI-Sicherheitsforschung bei OpenAI, Dario Amodei, hatte Anthropic 2021 als Start-up gegründet und in mehreren Finanzierungsrunden insgesamt anderthalb Milliarden US-Dollar an Wagniskapital eingeworben. Anthropic plant laut eigenen Angaben, ein zehnmal so starkes Modell wie GPT-4 zu bauen, und hat offenbar fünf Milliarden US-Dollar dafür eingeplant, wie im April 2023 bekannt wurde. Ende Mai hatten Amodei und sein Team zuletzt 450 Millionen Dollar an frischem Kapital eingesammelt, unter anderem von Google, Sound Ventures, Salesforce und Zoom.

Google stieg im Frühjahr 2023 bei Anthropic ein und sicherte sich gegen die Summe von 300 Millionen Dollar eine zehnprozentige Unternehmensbeteiligung. Um ihr geplantes »Supersprachmodell« zu finanzieren, müsste Anthropic noch weitere 3,5 Milliarden US-Dollar an Finanzmitteln einwerben. Zum Vergleich der Dimensionen: Für fünf Milliarden Euro planen die Niederlande derzeit den Bau eines neuen Kernkraftwerks, und das Volumen der gesamten KI-Strategie der Bundesregierung für die Jahre 2018 bis 2025 beträgt fünf Milliarden Euro.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.