Direkt zum Inhalt

Künstliche Intelligenz: KI findet seit Jahren schlummernde Software-Schwachstellen

Ein neues KI-Modell der Entwicklerfirma Anthropic hat zahlreiche Sicherheitslücken in verbreiteter Software gefunden, darunter einem als besonders sicher geltenden Betriebssystem. Die KI-Firma will es darum zunächst unter Verschluss halten.
Ein Bildschirmfoto zeigt Codezeilen in einer Entwicklungsumgebung. Der Code enthält HTTP-Anfragen und Funktionen zur Verarbeitung von Headern und URLs. Die Syntax deutet auf eine serverseitige Programmiersprache hin. Der Hintergrund ist unscharf, was den Fokus auf den Code legt. Schlüsselwörter: Code, HTTP-Anfragen, Entwicklungsumgebung, Programmierung.
Das KI-Modell »Mythos« hat sich als außerordentlich fähig im Analysieren von Computercode erwiesen (Symbolbild).

Ein neues KI-Modell des OpenAI-Rivalen Anthropic ist so gut darin, bisher unentdeckte Software-Schwachstellen zu finden, dass es in den falschen Händen zu einer verheerenden Cyberwaffe werden könnte. Deshalb macht Anthropic es nicht öffentlich, sondern lässt Unternehmen wie Apple, Amazon und Microsoft damit Sicherheitslücken in deren Programmen stopfen.

Das KI-Modell Claude Mythos Preview fand unter anderem eine 27 Jahre alte Schwachstelle im als besonders sicher geltenden Betriebssystem OpenBSD, wie Anthropic mitteilte. Insgesamt habe man mit Mythos bereits »Tausende« schwerwiegende Schwachstellen entdeckt – darunter in jedem breit genutzten Betriebssystem und Webbrowser. In der Videosoftware FFmpeg spürte das Modell eine seit 16 Jahren schlummernde Lücke auf.

Mythos Preview sei auch in der Lage gewesen, binnen weniger Stunden Programme zum Ausnutzen dieser Schwachstellen zu entwickeln – für die Experten nach eigenem Bekunden mehrere Wochen gebraucht hätten.

Einer frühen Version der Software wurde in einem Versuch die Aufgabe gestellt, aus einer abgeschirmten Computerumgebung auszubrechen und das dem Tester zu melden. Die Software umging laut Anthropic die Sicherheitsvorkehrungen, verschaffte sich selbst weitreichenderen Internetzugang und schickte dem Mitarbeiter eine für ihn überraschende E-Mail, während er mit einem Sandwich im Park saß.

»Mythos« nicht öffentlich verfügbar

Die Firma habe das Modell nicht speziell darauf trainiert, das alles zu können, hieß es weiter. Mit dem schnellen Fortschritt bei künstlicher Intelligenz sei davon auszugehen, dass solche Fähigkeiten recht bald auch Online-Angreifern zur Verfügung stehen könnten, warnte Anthropic.

In einer Kooperation mit dem Namen »Project Glasswing« sollen deshalb Unternehmen Zugang zu Mythos bekommen, um Sicherheitslücken in ihrer Software zu finden. Anthropic plane nicht, Mythos allgemein zugänglich zu machen. Unter den weiteren Kooperationspartnern sind die Linux-Stiftung, die IT-Sicherheitsfirmen Crowdstrike und Palo Alto Networks sowie der Netzwerk-Spezialist Cisco.

Anthropic ist vor allem bekannt für die KI-Software Claude, die mit ChatGPT von OpenAI konkurriert. Zuletzt geriet die Firma durch einen Streit mit dem Pentagon in die Schlagzeilen: Anthropic lehnte den Einsatz seiner KI in autonomen Waffen oder zur Massenüberwachung in den USA ab. Das Verteidigungsministerium erklärte Anthropic daraufhin zu einem Lieferketten-Risiko, was dem Unternehmen den Weg zu Geschäften mit der US-Regierung weitgehend versperren würde. Anthropic geht dagegen vor Gericht vor. (dpa/jad)

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.