Direkt zum Inhalt

Datenschutz: KI-Modelle, die private Daten vergessen

Private und urheberrechtlich geschützte Daten lassen sich gezielt aus KI-Modellen entfernen. Dafür braucht man nicht einmal Zugriff auf die ursprünglichen Trainingsdaten.
Ein farbenfrohes Flussdiagramm auf dunklem Hintergrund zeigt eine Vielzahl von Linien, die von links und rechts in ein zentrales Raster aus Punkten münden. Die Linien und Punkte sind in Regenbogenfarben gehalten, was auf eine komplexe Datenverarbeitung oder Netzwerkverbindung hinweist. Die Struktur betont die Verbindung und den Fluss von Informationen durch das System.
Wurden KIs mit personenbezogenen und urheberrechtlich geschützten Daten trainiert, verbleiben sie dort bislang auf unbestimmte Zeit.

Große Sprachmodelle wie ChatGPT »lernen« anhand riesiger Textmengen aus dem Internet, in welcher Abfolge bestimmte Wörter stehen. Bei etlichen der Trainingsdaten handelt es sich allerdings um personenbezogene oder urheberrechtlich geschützte Texte. Das allein ist schon kritisch, doch damit nicht genug: Als Antworten liefern KI-Chats oftmals nahezu wortgetreue Kopien der Trainingstexte – auch wenn diese von ihren Urhebern zwischenzeitlich gelöscht oder hinter die Bezahlschranke geschoben wurden.

Einige Medien wie die »New York Times« wollen sich das nicht gefallen lassen und verklagen OpenAI und Microsoft, die zahlreiche Artikel der Zeitung für das Training ihrer KI-Modelle verwendet haben. Zusätzlich üben Gesetze wie die Datenschutz-Grundverordnung der Europäischen Union oder der kalifornische Consumer Privacy Act Druck auf die KI-Unternehmen aus, den Schutz von privaten und urheberrechtlich geschützten Daten ernst zu nehmen.

Die heute bereits weitverbreiteten KI-Modelle mit bereinigten – aber immer noch umfangreichen – Datensätzen neu zu trainieren, um sie auf Datenschutz zu trimmen, wäre kostspielig und energieintensiv. Leichter würde es mit einer neuen Methode gehen, die Forschende der University of California, Riverside entwickelt haben. Sie zwingt KI-Modelle dazu, ausgewählte Informationen zu »vergessen«, während die Funktionalität der Modelle erhalten bleibt. Dafür benötigen die Forschenden nicht einmal Zugriff auf die ursprünglichen Trainingsdaten. Private Informationen könnten damit auch dann aus KI-Modellen entfernt werden, wenn die ursprünglichen Trainingsdaten gar nicht mehr verfügbar sind.

Für ihren Ansatz erzeugen die Forschenden gezielt einen Ersatzdatensatz für die Daten, die gelöscht werden sollen. Statistisch gesehen ähnelt der Ersatzdatensatz den Originaldaten. Das System passt dann die Modellparameter an und fügt ein sorgfältig kalibriertes Zufallsrauschen hinzu, das sicherstellt, dass die Zielinformationen gelöscht und nicht rekonstruiert werden können. Grundlage für diese Methode ist ein Konzept aus der KI-Optimierung, das annähert, wie sich ein Modell verändern würde, wenn es von Grund auf neu trainiert worden wäre.

In Validierungen an synthetischen und einfachen realen Datensätzen stellte sich heraus, dass die Methode fast den gleichen Datenschutz garantiert, wie wenn die Modelle vollständig neu trainiert worden wären – allerdings mit weit weniger Rechenleistung. Laut den Forschenden lässt sich die Methode auch auf komplexe Systeme wie ChatGPT übertragen. Vielversprechend sei sie für Medienorganisationen, medizinische Einrichtungen und andere, die mit sensiblen Daten in KI-Modellen arbeiten.

  • Quellen
Basaran, U. et al., arXiv 10.48550/arXiv.2506.06486, 2025

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.