Claude Mythos: Wie gefährlich ist das KI-Modell Claude Mythos?

Am 7. April 2026 hat das US-amerikanische Unternehmen Anthropic das neue KI-Modell »Mythos« bekannt gegeben und dabei für eine Überraschung gesorgt. Denn die Firma wird die Software nicht öffentlich zur Verfügung stellen – zu groß sei das Risiko, dass sie schädlich eingesetzt werde. Noch in der zweiten Aprilhälfte hallt diese Entscheidung in Finanz- und Regulierungskreisen nach. Seit OpenAI im Jahr 2019 sein GPT-2-Modell vorübergehend zurückhielt, hat keine große Techfirma mehr ein System als zu gefährlich für die Öffentlichkeit eingestuft.
»Die Folgen – für die Wirtschaft, die öffentliche Sicherheit und die nationale Sicherheit – könnten schwerwiegend sein«, erklärte Anthropic auf der Unternehmenswebsite. Deshalb beschränkt das Unternehmen den Zugang auf eine Handvoll Organisationen, die das Modell nutzen sollen, um ihre Netzwerke abzusichern, bevor die Schwachstellen öffentlich bekannt werden. Diese Initiative trägt den Namen »Project Glasswing«. Zur ersten Gruppe von Testern gehören Microsoft, Google, Apple, Amazon Web Services, JPMorgan Chase und Nvidia.
Während Behörden versuchen, die möglichen Auswirkungen der angeblich beispiellosen Hacking-Fähigkeiten des Modells einzuschätzen, sorgt die Ankündigung in der Cybersicherheitscommunity für Diskussionen. Stellt Mythos einen bedeutenden Bruch mit dem bisherigen Stand der Technik dar – oder ist die Software eine überhypte, erwartbare Weiterentwicklung?
Eine reale Bedrohung
In einem 245-seitigen Dokument beschreibt Anthropic das neue Modell, das demnach wie ein erfahrener Softwareentwickler arbeite und in der Lage sei, subtile Fehler zu erkennen und zu korrigieren. Das mache Mythos zu einer gefährlichen Waffe. Laut Anthropic übertreffe das Modell alle menschlichen Programmierer bei der Identifizierung und Ausnutzung von Software-Schwachstellen. In Tests habe es kritische Fehler in jedem weitverbreiteten Betriebssystem und Webbrowser gefunden. Von diesen Schwachstellen sind 99 Prozent noch nicht gepatcht. Die Firma gibt an, nur einen Bruchteil von Mythos’ Funden offengelegt zu haben.
Mythos wurde erstmals auf Grafikprozessoren (GPUs) der nächsten Generation trainiert. Die dadurch gewonnenen Fähigkeiten haben Finanzunternehmen in Aufruhr versetzt: Deutsche Banken gaben bekannt, sich mit Behörden und Cybersicherheitsexperten über die Risiken zu beraten, während die Bank of England erklärte, KI-Risikotests nach der Bekanntgabe von Mythos intensiviert zu haben.
»Die Ankündigung von Anthropic war sehr dramatisch und zumindest ein PR-Erfolg«Peter Swire, Sicherheitsexperte
Unabhängige Bewertungen deuten darauf hin, dass die Gefahr real ist – wenn auch begrenzter, als Anthropic angibt: Laut dem britischen AI Security Institute (AISI), das Mythos schon früh testen konnte, habe das Modell zwar in 73 Prozent der Fälle Hacking-Aufgaben auf Expertenniveau erfolgreich bewältigt, doch dies sei in einer unrealistischen Umgebung geschehen. Während der Tests gab es kaum Abwehrmechanismen und Schutzmaßnahmen, die in den meisten Systemen vorhanden sind. Das lasse sich mit einem begnadeten Fußballspieler vergleichen, der ein Tor gegen den schlechtesten Torwart der Welt schießt.
»Die Ankündigung von Anthropic war sehr dramatisch und zumindest ein PR-Erfolg«, sagt der Sicherheitsexperte Peter Swire vom Georgia Institute of Technology, ein ehemaliger Berater der Clinton- und Obama-Regierungen. Viele seiner Kolleginnen und Kollegen seien der Ansicht, dass Mythos ziemlich genau das ist, was sie erwartet hatten, und nichts grundlegend Neues darstellt. Das sieht auch Ciaran Martin von der University of Oxford so: »Mythos ist ein herausragendes Modell, aber es wird unsere Welt wahrscheinlich nicht in ihren Grundfesten erschüttern.«
»Jeder Cybersicherheitsbeauftragte sollte Mythos ernst nehmen, aber der Schaden dürfte weitaus geringer sein, als die Worst-Case-Szenarien vermuten lassen«Peter Swire, Sicherheitsexperte
Keiner der Experten bestreitet, dass Mythos ein bedeutender Fortschritt ist. Doch sie vermuten, dass regulatorische Maßnahmen teilweise durch institutionelle Selbsterhaltung motiviert sind. »Cybersicherheitsanbieter haben ein Interesse daran, auf die potenziell sehr schwerwiegenden Folgen einer neuen Entwicklung hinzuweisen«, erklärt Swire, »auch wenn sie eigentlich schätzen, dass die tatsächlichen Auswirkungen nur einen Bruchteil dessen betragen werden, was die Pressemitteilung von Anthropic behauptet.« Schließlich kommt es selten vor, dass eine Organisation durch die Vorhersage einer Katastrophe wirtschaftlichen Schaden erleidet.
»Ein Risiko von Mythos besteht darin, dass es einfacher wird, eine Schwachstelle in einen Exploit zu verwandeln – also in etwas, das wirklich ausgenutzt wird«, sagt Swire. »Jeder Cybersicherheitsbeauftragte sollte Mythos ernst nehmen, aber der Schaden dürfte weitaus geringer sein, als die Worst-Case-Szenarien vermuten lassen.«
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.