Direkt zum Inhalt

Alternativen zu OpenAI: »KI-Forschung darf nicht hinter verschlossenen Türen stattfinden«

KI sollte öffentliches Gut sein: So sieht es das KI-Forschungsnetzwerk LAION, das Datensätze zum Trainieren großer KI-Modelle bereitstellt und auch selbst offene KI-Modelle entwickelt. LAION setzt sich vehement für einen offenen Zugang zu KI ein. Was treibt die Gründer an?
Vier ehrenamtliche Mitarbeiter und eine Mitarbeiterin des KI-Vereins LAION bei der Verleihung des Wissenschaftspreises Falling Walls Award, im Freien aufgenommen in lockerer Aufstellung. Von links nach rechts: Mehdi Cherti, Marianna Nezhurina, Jenia Jitsev, Christoph Schuhmann, Robert Kaczmarczyk
Wie offen sollte KI sein? Die einen wollen alles offenlegen, die anderen ihre Geschäftsgeheimnisse nicht preisgeben. Open-Source-Verfechter wie das gemeinnützige Forschungsnetzwerk LAION haben Sicherheitsbedenken, und die aktuelle Führungskrise bei OpenAI scheint ihnen Recht zu geben.

Nachdem OpenAI binnen weniger Tage fast implodiert wäre, fragen viele Menschen nach Alternativen zu ChatGPT und seinem omnipräsenten Anbieter. Die Gründer des KI-Forschungsnetzwerks LAION finden, künstliche Intelligenz sollte öffentliches Gut und frei erforschbar sein. Die wissenschaftliche Tätigkeit und das gemeinnützige Engagement des in Hamburg ansässigen Vereins für Forschungsfreiheit wurden bereits mit Wissenschaftspreisen, etwa mit dem Falling Walls Award 2023 ausgezeichnet, und LAION ist im November 2023 vom Wirtschaftsmagazin »Fortune« in die Liste der wichtigsten KI-Pioniere aufgenommen worden.

Das »O« im Namen LAION steht für »Open«, analog zu OpenAI, allerdings ist »offen« hier wörtlich gemeint: Das Large-Scale Artificial Intelligence Open Network engagiert sich für den öffentlichen Zugang zu KI – indem es Material liefert, aus dem andere ihre KI-Modelle zimmern. Vielen großen KI-Modellen mit Sprach- und Bildfähigkeiten liegen die LAION-Datensätze zu Grunde, und der Verein erstellt auch selbst offene Modelle. Die LAION-Gründer sagen, dass KI »nicht hinter verschlossenen Türen entstehen darf«.

»Spektrum.de«: Wie geht es euch in dieser für die KI-Branche turbulenten Zeit?

Christoph Schuhmann: Es fühlt sich etwas surreal an – vor zwei Jahren hätte keiner von uns gedacht, dass wir innerhalb von so kurzer Zeit mit unseren sehr idealistischen Vorstellungen bei den ganz Großen im KI-Feld mitmischen können. Dabei sind wir ein bunter, zusammengewürfelter Haufen mit unterschiedlichen Berufen, die die gemeinsame Vision haben, künstliche Intelligenz im Sinn der Menschheit zu erforschen und zu entwickeln. Wir haben 2019 schon geahnt, dass das, was wir tun, wichtig ist, und dass es egal ist, ob wir, irgendein großes Unternehmen oder eine andere »Grassroot Community« unser Ziel verfolgt, solange dieser Weg überhaupt beschritten wird. Dass wir ein bedeutender Player in diesem Bereich sein könnten, das konnte natürlich keiner ahnen.

Graswurzelbewegung kenne ich als Begriff für Initiativen, die von unten her, also von Privatleuten ausgehen. Wer seid ihr, eine Art Bürgerinitiative?

Robert Kaczmarczyk: Bis Mitte 2021 agierten wir tatsächlich noch rein als Privatpersonen. Dann haben wir unsere Ideale in einer Vereinssatzung festgehalten und einen gemeinnützigen Verein gegründet, den heutigen LAION e. V. – dies ist jedoch nur der rechtliche Rahmen einer forschungsaktiven, offenen Gemeinschaft. LAION als Idee geht auf das Jahr 2021 zurück, als OpenAI mit seiner Ankündigung von DALL·E für Aufsehen gesorgt hat. Ein Machine-Learning-Modell war in der Lage, mit Hilfe einer Texteingabe wundervolle Bilder zu generieren – der Haken an der Sache: das Modell wurde gar nicht erst veröffentlicht, seine Nachfolger ebensowenig. Als Verein klären wir auch die Öffentlichkeit über KI auf.

»Als Verein klären wir die Öffentlichkeit über KI auf«Robert Kaczmarczyk, KI-Forscher und Dermatologe

Was sind eure Ziele?

Christoph Schuhmann: Wir wollen, dass KI demokratisch im Open-Source-Prinzip entwickelt wird, also dezentral und kollaborativ. Der Quelltext muss öffentlich und von Dritten einsehbar sein. Die Software von Open-Source-Projekten durchläuft Review-Verfahren, die Community hinter einem Projekt arbeitet gemeinsam daran, das Ergebnis zu verbessern und sicher zu machen. Das sind Leute mit Fachkenntnissen, die sich ehrenamtlich in ihrer Freizeit dahinterklemmen. So wie wir bei LAION.

Die bislang leistungsfähigsten KI-Modelle wie die GPT-Reihe von OpenAI oder Googles PaLM-Modelle sind derzeit jedoch großteils in privater Hand, also »proprietär«. OpenAI versucht seit diesem Jahr, sich Markenrechte an der Bezeichnung GPT zu sichern, obwohl die Architektur von Google erfunden und frei geteilt wurde. Wieso seid ihr Verfechter von quelloffener KI?

Jenia Jitsev: Echte wissenschaftliche Forschung – generell und insbesondere auch an KI – ist nur möglich mit Validierung und Reproduzierbarkeit der Ergebnisse, und das ist nur gegeben, wenn man mit genügend Transparenz arbeitet – im offenen Ansatz von Open Source ist das der Fall. Unserer Meinung nach birgt der geschlossene »Closed-Source«- Ansatz bei der Erforschung zukünftiger Technologien generell – und gerade auch im Fall von Forschung an KI – Gefahren. Die Entscheidung, wer an KI forscht und woran geforscht wird, wird exklusiv nur an einigen wenigen industriellen Orten oder gar von autoritären Staaten getroffen, die solche geschlossene Forschung betreiben. Dies kann dazu führen, dass sich Oligopole bilden, die darüber entscheiden, welchen Weg der ganze Forschungsbereich gehen wird, der für unsere Gesellschaft in der Zukunft aber eine Schlüsselrolle spielt.

»Demokratisierung von KI-Forschung« und Gemeinnützigkeit sind eure Hauptanliegen. Zugleich wollt ihr OpenAI und anderen Großen im Feld wie Google, Meta und Microsoft Konkurrenz machen. Wie genau und womit?

Jenia Jitsev: Uns geht es nicht in erster Linie darum, großen industriellen Labs wie dem von OpenAI Konkurrenz zu machen. Es geht zunächst um ein sehr wichtiges Anliegen: Die Forschung rund um die grundlegenden Methoden, Modelle und Datensätze, die das Gebiet von Machine Learning und KI entscheidend prägen, aus ihrem Nischendasein zu holen. KI-Forschung darf nicht hinter verschlossenen Türen stattfinden. Stattdessen wollen wir sie für die wissenschaftliche Gemeinschaft zugänglich machen, so dass sie durch die Arbeit zahlreicher wissenschaftlicher Experten aus verschiedenen, gut etablierten Forschungslabors die wissenschaftlichen Standards erfüllt.

Ist das denn noch nicht der Fall?

Jenia Jitsev: Es ist leider immer noch so, dass ein Großteil der grundlegenden wissenschaftlichen Experimente in KI mangels Zugangs nicht in der freien Wissenschaft, also nicht von unabhängigen Teams ausgeführt werden können – etwa die Forschung an den GPT-4-Datensätzen oder den Trainingsverfahren, die zum Erstellen großer, starker Sprach- oder Sprach-Bild-Modelle wie denen hinter ChatGPT oder GPT-4 Vision benötigt werden. Das liegt sowohl an den fehlenden Rechenressourcen als auch an der fehlenden Fachexpertise, um solche Experimente durchzuführen.

Google, OpenAI und andere große Anbieter scheinen die Konkurrenz aus dem Open-Source-Bereich sehr ernst zu nehmen. Vor einigen Monaten wurde bei Google ein internes Protokoll an die Öffentlichkeit durchgestochen mit dem Titel »We don’t have a moat, neither does OpenAI« – wir haben keinen Schutzwall um uns herum, OpenAI aber auch nicht. Könnte Open-Source-KI geschlossenen Modellen und ihren Geschäftsmodellen den Rang ablaufen?

Robert Kaczmarczyk: Großskalige Sprachmodelle werden derzeit zunehmend quelloffen veröffentlicht. Das Geschäftsmodell einiger großer Unternehmen ändert sich – es scheint, als könnten Open-Source-KI-Systeme geschlossenen Modellen durchaus Konkurrenz machen, indem sie eine breitere Basis für Innovationen bieten. Während geschlossene Modelle oft proprietäres Knowhow enthalten, das von einzelnen Unternehmen kontrolliert wird, fördern Open-Source-Modelle Zusammenarbeit und das Teilen von Wissen. Das beschleunigt die Entwicklung, und eine Community von Entwicklerinnen und Entwicklern kann so die Software verbessern und die Foundation Models für ihre spezifischen Bedürfnisse anpassen.

Haben Sie weitere Beispiele im Sinn?

Robert Kaczmarczyk: Unternehmen bieten zunehmend Dienstleistungen an, um diese Open-Source-Modelle für spezielle Anwendungsfälle zu verfeinern und zu optimieren. Solche Dienste umfassen nicht nur Rechenleistung, sondern auch Beratung, Customizing und Support. Das ist für viele Kunden attraktiv, die nicht die Ressourcen oder das Know-how haben, um die Modelle selbst anzupassen. Zwischen Open-Source- und Closed-Source-Modellen findet ein Katz-und-Maus-Spiel statt: Je besser die Open-Source-Modelle werden, desto stärker müssen sich geschlossene Modelle in ihren Fähigkeiten von ihnen absetzen, um für die breite Öffentlichkeit noch interessant zu sein – das fördert die Innovation und den Wettbewerb.

»Wir haben LeoLM entwickelt, die deutsche Version eines großen Sprachmodells, das auf deutschen Datensätzen trainiert worden ist«Robert Kaczmarczyk, KI-Forscher und Dermatologe

Was hat LAION schon konkret auf die Beine gestellt?

Robert Kaczmarczyk: Seit unserer Gründung haben wir viele Projekte gestartet und zum Beispiel das Projekt »OpenAssistant« als eine offene Alternative zu ChatGPT angestoßen. Anders als ChatGPT wurde ein Bilderkennungsmodell von OpenAI namens CLIP (Anm. Red. »Contrastive Language Image Pre-Training«) zum Glück veröffentlicht. Mit CLIP kann man unter anderem berechnen, wie gut Bildbeschreibungen zu dazugehörigen Bildern passen. Wir waren an dem Training der OpenCLIP-Modelle beteiligt, wofür wir die ersten vollständig reproduzierbaren Skalierungsgesetze abgeleitet haben.

Der Verein baut also auch selbst Modelle?

Robert Kaczmarczyk: Ja, für den »OpenAssistant« haben wir ein offenes Sprachmodell trainiert und den Datensatz erstellt. Und wir haben LeoLM entwickelt, die deutsche Version eines großen Sprachmodells beziehungsweise Large Language Models (LLM), das speziell auf deutschen Datensätzen trainiert worden ist. LeoLM, OpenAssistant und OpenCLIP sind vollwertige Modelle, wobei OpenAssistant und LeoLM andere öffentliche große Sprachmodelle weiter trainiert und angepasst haben. Die OpenCLIP-Serie, das sind hingegen vollwertige Modelle, die wir von Grund auf selbst entwickelt und auf unseren Daten trainiert haben. Christoph Schuhmann hat angefangen, Bilder vom »Common Crawl« mit Hilfe von CLIP zu filtern, um einen großen Datensatz für das Trainieren von Text-zu-Bild-Modellen zu bauen.

Das musst du kurz erklären: Was meinst du mit »Common Crawl«?

Robert Kaczmarczyk: Das ist ein gemeinnütziger Webcrawler, der durch das Internet wandert und Webseiten archiviert – für uns waren Bilder mit dazugehöriger Beschreibung relevant.

Jenia Jitsev: Wir haben gezeigt, dass durch den Open-Source-Ansatz Projekte wie OpenCLIP überhaupt erst entstehen können – mit unserer Arbeit an Foundation Models zur Sprach- und Bildverarbeitung, die zuvor exklusiv nur bei OpenAI erforscht und entwickelt wurden, und mit der Sammlung für offen verfügbare Datensätze wie LAION-400M und LAION-5B.

Das klingt zunächst nach einem Proof of Concept, der die Durchführbarkeit eures Vorhabens belegt. Wem kommt das in der Praxis zugute?

Jenia Jitsev: Solche Arbeiten ermöglichen es der gesamten wissenschaftlichen Gemeinschaft, die Forschung offen zu betreiben, so dass alle Ergebnisse daraus jederzeit reproduziert und validiert werden können und die Forschungsgemeinschaft auf den bereits vorhandenen validierten Ergebnissen weiter aufbauen kann. Das ist die Grundlage dafür, dass die Forschung in KI reproduzierbar, transparent und robust wird – was auch für die Sicherheit der Erzeugnisse solcher Forschung wichtig wird.

Als Idee leuchtet das ein – aber na ja, bei KI-Modellen der jetzigen Generation hapert es noch an vielen Stellen, unabhängig von Closed oder Open Source …

Jenia Jitsev: Wir sind uns einig, dass nur offene, transparente und reproduzierbare Forschung das volle Potenzial von KI entfalten kann – so dass wir reale Herausforderungen in der Welt gemeinsam frühzeitig angehen können. Mit KI lassen sich potenziell kommende Pandemien durch Warnsysteme bekämpfen, neue Wirkstoffe in der Medizin entwickeln oder die Klima- und Energiekrise lösen – etwa durch KI-erzeugte neue Materialien und Energieträger oder aber durch KI-gestütztes Design und die Kontrolle von Fusionskraftwerken. Große Industriefirmen wie OpenAI oder Google DeepMind werden da ihren starken Beitrag leisten können, und wir sehen sie auch als bereichernde Komponenten des Forschungsökosystems – da sie neuartige Verfahren entwickeln, die wissenschaftlich wichtige Impulse setzen. Während sich solche Firmen allerdings stets dem Profit verpflichten müssen, fühlen wir uns den Idealen der freien Forschung verbunden. Das ist der große Unterschied in der Vorgehensweise, und das begründet auch unsere Gemeinnützigkeit.

»Ist die Macht in den Händen von wenigen konzentriert, erzeugt eine Führungskrise eine Schockwelle durch die ganze Community«Jenia Jitsev, Wissenschaftlicher Leiter von LAION

Sie hatten vorhin Gefahren des Closed-Source-Ansatzes erwähnt. Welche wären das?

Jenia Jitsev: Beim Closed-Source-Ansatz kann die Sicherheit der KI-Systeme nur ungenügend überprüft werden, da nur wenige Wissenschaftler Zugang zu den wichtigen Modellen besitzen – die zudem den kommerziellen Interessen ihrer Arbeitgeber und Investoren samt entsprechendem Druck ausgesetzt sind, wie uns gerade die Krise bei OpenAI nachdrücklich vor Augen führte. Ist die Macht und Expertise über solche grundlegende Forschung und Technologie in den Händen von wenigen konzentriert, erzeugt eine Krise im engen Kreis dieser wenigen Leute eine Schockwelle durch die ganze Community, zerstört Vertrauen der Öffentlichkeit und gefährdet den Fortschritt der KI-Grundlagenforschung. Wir brauchen einen transparenten und dezentralen Ansatz, solche Forschung zu betreiben, damit Krisen der wenigen nicht die Allgemeinheit erfassen – das kann durch die Open-Source-Community passieren.

»Wir erkennen die Notwendigkeit regulatorischer Maßnahmen an, insbesondere in der Medizintechnik oder bei kommerzieller Software«Christoph Schuhmann, Informatiklehrer und Physiker

Gegen Open Source wird allerdings ebenfalls oft KI-Sicherheit ins Treffen geführt: Quellcode könnte auch missbraucht werden zu böswilligen Zwecken und um Menschen oder ganzen Staaten zu schaden. Wie steht ihr zum Missbrauchspotenzial und zu der auf EU-Ebene geplanten Regulierung von KI nach Risikoklassen im künftigen »AI Act«?

Christoph Schuhmann: Unsere Position ist differenziert. Wir erkennen die Notwendigkeit regulatorischer Maßnahmen an, insbesondere im Hinblick auf KI-Anwendungen, die direkt an Endverbraucher gerichtet sind, wie in der Medizintechnik oder bei kommerzieller Software. Solche Regelungen sind entscheidend, um Sicherheit und ethische Standards zu gewährleisten. Allerdings plädieren wir dafür, dass die Erforschung und Entwicklung von Open-Source-KI-Modellen von allzu restriktiven Regulierungen ausgenommen werden sollte. Übermäßige Beschränkungen könnten nicht nur Fortschritte im Bereich der KI-Sicherheit bremsen, sondern auch dazu führen, dass Fachkräfte die Europäische Union verlassen.

Jenia Jitsev: Um den Missbrauch offener KI-Forschung zu verhindern oder ihm vorzubeugen, müssen genau dieselben Maßnahmen getroffen werden wie gegen Missbrauch in anderen Forschungsbereichen, die ein gewisses Gefahrenpotenzial bergen – das sind die meisten Grundlagenforschungsbereiche in Physik, Chemie oder auch Biologie.

Wie würde dann in euren Augen sinnvolle Regulierung ausschauen?

Christoph Schuhmann: Um Wachstum und Sicherheit im KI-Sektor zu fördern, befürworten wir eine ausgewogene Regulierungsstrategie – die Forschung und Entwicklung unterstützt, während sie gleichzeitig die Risiken für Verbraucher und Gesellschaft minimiert.

Jenia Jitsev: Grundlagenforschung sollte frei bleiben – vor allem an Foundation-Modellen, die nicht auf einen bestimmten Einsatzbereich festgelegt sind. Regulierung ist sinnvoll für Endanwendungen, die ein klares, wissenschaftlich erwiesenes Gefahrenrisiko darstellen, genauso wie für andere Forschungsbereiche und Technologien. In der Nuklearphysik etwa wird offen geforscht. Was reguliert wird, sind die Nuklearwaffen. Molekulare Biologie ist freie Grundlagenforschung, das CRISPR-Cas-System in der Genetik ist freie Grundlagenforschung. Reguliert werden dabei Experimente an gefährlichen Viren und Bakterien. Was eine »Gefahr« darstellt, ist durch wissenschaftliche Evidenz und Konsens gestützt, nicht durch Spekulation.

Falling Walls Science Summit: LAION gewinnt Preis als »Scientific Breakthrough 2023« | Jenia Jitsev, Mehdi Cherti, Marianna Nezhurina, Robert Kaczmarczyk und Christoph Schuhmann (v.l.n.r.) nahmen den Preis für ihr Engagement rund um freie KI-Forschung entgegen. Drei der Vereinsgründer kommen im Interview zu Wort: Der promovierte Neurowissenschaftler und Informatiker Jenia Jitsev leitet ein KI-Forschungslabor am Superrechenzentrum in Jülich und ist wissenschaftlicher Leiter von LAION. Unter anderem erhielt er 2022 den »Best Paper Award« der NeurIPS-Konferenz. Christoph Schuhmann studierte Physik, Informatik sowie Psychologie an der Universität Wien und arbeitet als Informatiklehrer an einem Hamburger Gymnasium. Neben KI befasst er sich mit Reformpädagogik. Robert Kaczmarczyk ist angehender Facharzt für Dermatologie und Allergologie in München. Mit KI will er zur Pandemieprävention beitragen.

Wie meinen Sie das?

Jenia Jitsev: Man sollte Sicherheitsforschung an offenen Systemen betreiben und Szenarien bestimmen, die tatsächliche Gefahr bergen. Daraus lassen sich auch konkrete Regulierungsmaßnahmen ableiten. Open-Source-Foundation-Modelle sollten möglichst frei veröffentlicht werden, Downstreaming-Applikationen müssen dann allerdings bestimmte Qualitätskriterien und Sicherheitsstandards erfüllen – »Downstream« bezieht sich hier auf den Datenfluss von den Anwendungen hin zu den Endverbrauchern.

Derzeit laufen mehrere Prozesse etwa in den USA gegen OpenAI, weil Künstler und Autoren sich von großen KI-Modellen in ihren Urheberrechten verletzt sehen. Auch gegen LAION und manche Anbieter, die eure Datensätze nutzen, wurde schon Klage eingereicht. Ein deutscher Stockfotograf hatte gegen LAION geklagt, um eine Vergütung seiner zum KI-Training genutzten Bilder zu erstreiten. Was ist daraus geworden?

Christoph Schuhmann: Unserer Ansicht nach ist die Anklage unbegründet und eine zeitlich eingegrenzte Rechtsstreitigkeit: Mit den immer besser werdenden Text-zu-Bild-Modellen wird in naher Zukunft jedes nur erdenkliche Bild in allen möglichen Varianten und in jedem Stil generierbar sein. Die Rechtsstreitigkeit läuft noch, und wir können deshalb keine Details nennen. Wir sind jedoch der Ansicht, dass solche Prozesse Ängste vor einem möglichen Arbeitsplatzverlust durch neue Technologie widerspiegeln. Als gemeinnützige, forschende Organisation sind wir nach deutschem Recht abgesichert, diese Werke so zu analysieren, wie wir es getan haben.

»Es besteht keine Copyrightverletzung, wenn Metawissen erschaffen wird«Jenia Jitsev, Wissenschaftlicher Leiter von LAION

Jenia Jitsev: LAION-Forschungsergebnisse werden von verschiedenen Leuten genutzt, auch von kommerziellen Anbietern. Ein derzeit in den Medien besprochener Rechtsstreit richtete sich nicht gegen unseren Verein, sondern gegen manche dieser Anbieter. In dem Verfahren gegen das britische KI-Unternehmen Stability AI und andere wurde aus unserer Sicht jedoch deutlich, dass das Konzept des Urheberrechts beim Lernen aus einem so großen und diversen Datensatz nicht greifen kann. Urheberrecht greift nur dann, wenn es um eine gezielte Reproduktion von bestimmten geschützten Werken geht. Das Trainieren auf den Daten hingegen erzeugt so etwas wie ein »Weltmodell«. Es besteht keine Copyrightverletzung, wenn wie bei uns Metawissen darüber erschaffen wird, welche Werke es gibt und was sie ausmacht.

»Weltmodell« müssten Sie erklären, inwiefern wäre das für das Urheberrecht relevant?

Jenia Jitsev: Das ist genau das, was beim Lernen passiert – es entsteht ein Modell, das die Gesamtheit aller vorhandenen Werke widerspiegelt, ohne sie jedoch reproduzieren zu müssen. Copyrightverletzung würde ein Nutzer begehen, der oder die das Modell nutzt, um ein bestimmtes Werk gezielt nachzubauen. Das ist vergleichbar mit Studierenden, die aus allen verfügbaren Materialien lernen. Sie begehen keinen Copyrightverstoß, indem sie aus vorhandenen Werken ihr Wissen schöpfen. Etwas anderes ist es, wenn ein Student ein bestimmtes geschütztes Werk mit Hilfe seines Wissens und der erworbenen Fähigkeiten vervielfältigt – dann kann es sich um eine Urheberrechtsverletzung handeln. Lernen ist nicht das Vervielfältigen von Originalen, und das gilt gleichermaßen für das Lernen, wie Menschen es tun, wie für das maschinelle Lernen der KI-Modelle. Wir finden generell, dass für das Lernen als Grundlage von Bildung und Forschung Inhalte frei zur Verfügung stehen müssen. Für kommerzielle Anwendungen sieht das dann anders aus und muss durch Industrie und Gesellschaft entsprechend geregelt werden.

Die US-Regierung plant offenbar, KI-Modelle zu lizenzieren, wodurch nur noch wenige große Anbieter Marktzugang in den USA hätten. Das Hauptargument für eine solche Einschränkung ist die KI-Sicherheit. Kritiker sehen das hingegen als schweren Schlag für Open-Source-Projekte und befürchten eine Verdrängung kleinerer Anbieter etwa aus Europa. Welche Auswirkungen hätte das auf Europa und die hiesige KI-Landschaft?

Robert Kaczmarczyk: Wir unterstützen keine staatlichen Lizenzen, egal wie gut gemeint diese sind. Dies führt zu staatlicher Kontrolle darüber, wie Menschen sprechen und was sie lernen. Wir unterstützen geeignete Sicherheitsmaßnahmen wie den Schutz vor Hochrisiko-Aktivitäten und den Schutz Minderjähriger sowie ähnliche Bereiche, die derzeit im EU-KI-Gesetz diskutiert werden. Der US-Kongress erwägt ein Gesetz über die Lizenzierung, wer KI-Sprachmodelle einsetzen darf oder nicht, die Details werden allerdings noch ausgearbeitet. Wir versuchen, die EU zu überzeugen, diesen Weg mit dem EU AI Act nicht zu verfolgen – wir fordern unsere Politiker auf, nicht den Zugang zu Wissen in Form von KI-Modellen zu beschränken oder das Recht auf freie Meinungsäußerung einzuschränken, sondern Verfechter der Freiheit in der ganzen Welt zu sein.

»Bei LAION setzen wir große Projekte unbürokratisch und schnell um«Christoph Schuhmann, Informatik- und Physiklehrer

Ihr seid nicht die einzigen Verfechter offener Ansätze. Welche Unterschiede oder auch Gemeinsamkeiten gibt es im Vergleich mit dem nicht kommerziellen und ebenfalls gemeinnützigen KI-Projekt EleutherAI? Diese Initiative ist 2020 angetreten, um GPT-3 nachzubauen und für die Forschung zugänglich zu machen …

Christoph Schuhmann: Wir kooperieren mit ihnen und pflegen regen Austausch mit anderen Bewegungen wie EleutherAI oder dem Projekt für offene Wissenschaft BigScience. Unsere Gemeinsamkeiten sind zum großen Teil unsere Ideale – der Open-Source-Ansatz in der Erforschung künstlicher Intelligenz. Bei LAION setzen wir große Projekte unbürokratisch und schnell um – es gibt keine internen bürokratischen Hürden oder langwierigen Prozesse bei unserem Verein, solange die Projekte mit geltendem Recht konform sind und sich mit unseren Idealen decken.

Jenia Jitsev: EleutherAI hat denselben Schwerpunkt wie LAION. Sie haben sich bisher sehr viel mehr auf Sprache fokussiert, während LAION sich von Anfang an um Sprache und Computervision gekümmert sowie multimodal geforscht hat.

Und die Unterschiede?

Christoph Schuhmann: Wir sind aktuell auch mit weiteren Forschungsinstituten in regem Austausch und erarbeiten Möglichkeiten, einen europäischen, großskaligen Forschungs-Computer für das Trainieren von Open-Source-Foundation-Modellen umzusetzen.

Robert Kaczmarczyk: Was Christoph Schuhmann beschrieben hat, sind schon die Unterschiede. LAION wurde unter anderem gegründet, um weniger konventionelle Forschungsansätze rasch und reibungslos verfolgen zu können – die Zeit von der Erstvorstellung auf unserem Server zum Zugang auf einen Supercomputer oder zum »Lead« in einem Teilforschungsbereich ist unglaublich kurz im Vergleich zu den anderen – rein subjektiv. Und vor allem deshalb, weil die KI-Forschung gerade so extrem rasant ist, ist eine gewisse Schnelligkeit hier auch notwendig, um am Ball zu bleiben.

Das unterscheidet uns in unseren Augen von den anderen. LAION hat den Fokus ganz auf Open Source gelegt – quelloffene Datensätze, Modelle und Code. Bei Eleuther bin ich mir über den Schwerpunkt nicht ganz im Klaren. EleutherAI ist auch eine »Grassroot Community«, da kann man sich gern beteiligen. Ob LAION oder EleutherAI ist egal – man wählt einfach die Community, die einem am besten gefällt!

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.