Direkt zum Inhalt

Künstliche Intelligenz: »Die Leute wollen nicht verstehen, wie KI funktioniert«

KI-Anwendungen lassen sich oft intuitiv nutzen, sind kostenlos – und intransparent. Datenforensiker Jan Schoenmakers spricht im Interview über die Gefahren blinden Vertrauens und die Verantwortung im Umgang mit KI.
Algorithmen
Künstliche Intelligenz zu nutzen wird immer einfacher. Was hinter den Algorithmen steckt, scheint die Menschen jedoch wenig zu interessieren.

Obwohl KI-Anwendungen oft einfach erscheinen, ist ihre Funktionsweise eine Art »Black Box«. Das birgt Gefahren für die Nutzer und Nutzerinnen sowie für die Politik, warnt Jan Schoenmakers im Interview. Er plädiert für mehr Grundlagenbildung an Schulen, transparente Algorithmen und eine wertebasierte KI-Politik. Für »Spektrum.de« sprach Johannes Greß mit dem Datenforensiker. Das ist der zweite und letzte Teil eines Interviews mit dem KI-Experten. Lesen Sie hier den ersten Teil, in dem Schoenmakers über die Jagd auf Produktfälscher berichtet.

»Spektrum.de«: Ihr Unternehmen HASE & IGEL hat im Sommer 2023 eine Studie zum Umgang mit KI-Nutzern und -Nutzerinnen veröffentlicht. Grob zusammengefasst: KI wird viel verwendet, aber kaum verstanden …

Jan Schoenmakers: Wir haben bis ins Jahr 2019 zurück analysiert, wie sich Deutsche, Österreicher und Schweizer zu KI informieren. Was googeln sie dazu? Was lesen sie dazu in Medien? Worauf reagieren sie? Was schreiben sie in sozialen Medien, in Foren? Was sind die Themen bei Vorträgen? Wir schauen uns das gesamte Informationsverhalten über sämtliche Kanäle hinweg an und ermitteln semantische Muster: Was für Themen kommen vor? Wie wird sich über KI informiert? Wie wird sich darüber ausgetauscht? Mit unserer KI haben wir ausgewertet, wie sich diese Muster über die Jahre verändern.

Jan Schoenmakers | ist Gründer und Geschäftsführer der Analyse- und Beratungsfirma HASE & IGEL. Der KI-Experte hat Sozialwissenschaften und Marketing studiert.

Liegt es nicht in der Natur der Sache, dass sich Konsumentinnen und Konsumenten kaum mit den technischen Details ihrer Gerätschaften befassen? Ich könnte Ihnen jetzt auch nicht erklären, wie mein Induktionsherd oder eine U-Bahn funktioniert, obwohl ich diese Dinge täglich benutze …

Was wir bei KI beobachten, unterscheidet sich von anderen Technologien. Je mehr KI-Anwendungen genutzt werden, desto weniger wollen die Leute verstehen, wie sie funktionieren. Das ist sehr unüblich. Dass wir als Anwender oft nicht verstehen, wie unsere Technik funktioniert, ist normal: Kaum einer kann sein Auto selbst reparieren, kaum einer kann beim Smartphone den Akku oder das Display tauschen. Aber was man bei einer neuen Technologie in der Regel sieht, ist, dass sich die Leute damit so beschäftigen, dass sie eine grobe Idee haben, wie es funktioniert, und dass sie sich mit Begeisterung Fachvokabular aneignen. Das haben wir bei jeder großen technologischen Welle gesehen – eben auch bei den Smartphones, wo Leute begannen, sich darüber auszutauschen, ob dieser oder jener Prozessor verbaut ist, welches Betriebssystem besser ist und was die besten Tricks sind, damit der Akku länger hält.

Und bei KI?

… ist es genau der umgekehrte Fall: Das Interesse, sich mit den zu Grunde liegenden Technologien zu beschäftigen und darüber zu lernen, stagniert oder geht sogar zurück – und teilweise auch die Bereitschaft der Industrie, in tiefere technische Anwendungen zu investieren, die mehr erfordern als einen Prompt in einem Browser. Wir werden somit in Sachen KI immer naiver und abhängiger von Produkten, die wir nicht verstehen.

Warum ist das so?

Einerseits ist das ein Mangel an Grundlagenbildung. Die meisten Menschen in Deutschland haben in der Schule kaum IT-Kompetenzen vermittelt bekommen. Und je weniger ich anfänglich zu etwas weiß, desto größer ist die Hürde, mich damit zu beschäftigen.

Jedes Schulkind kann doch mittlerweile mit ChatGPT hantieren …

Für die Anwendungsebene stimmt das natürlich. ChatGPT kann ich nutzen, ohne etwas davon zu verstehen. Doch das gibt mir ja nicht unbedingt den Wunsch, tiefer einzusteigen – die meisten Menschen, die Milch im Supermarkt kaufen, wollen nicht lernen, eine Kuh zu melken, würden sich auch kaum als Experten für Viehwirtschaft bezeichnen. Wenn es darum geht, wie wir als Unternehmen und Gesellschaft KI einsetzen, braucht es schon etwas mehr Kompetenz, als nur konsumieren zu können.

»Wenn es darum geht, wie wir als Unternehmen und Gesellschaft KI einsetzen, braucht es mehr Kompetenz, als nur konsumieren zu können«

Und andererseits?

Anderseits liegt das Problem auch in der Mischung aus Einfachheit und Intransparenz solcher Lösungen. Ob Google-Services oder ChatGPT: Was aus den USA an Anwendungen kommt, ist oft so intuitiv, dass man sich schnell einbildet, Experte zu sein, obwohl man letztlich nur Anwender ist. Da all diese Programme aber »Black Boxes« sind, die mir also niemals offenlegen, wie sie funktionieren und auf welcher Datenbasis mit welchen Annahmen sie mir eine Antwort geben, wird sich das auch nie ändern: Ich bleibe abhängig vom Anbieter und muss ihm letztlich blind vertrauen. Weil die Dienste sehr günstig oder gar kostenlos sind, denken viele, das sei leicht zu verschmerzen – doch steigt das versteckte Risiko: Der Anbieter kann mir jederzeit die Preise erhöhen, und ich habe keine Alternative. Wenn ich mich für das Ergebnis rechtfertigen muss vor einem Aufsichtsrat, dem Kunden oder gar einem Gericht, kann ich dann immer nur sagen: »Ich weiß auch nicht, das hat mir eben der Computer empfohlen.«

Inwiefern trägt hier auch die Politik eine Mitverantwortung?

Bei dieser Diskussion ist das Abstraktionsniveau in der Politik sehr hoch. KI ist wahlweise der Teufel, den man an die Wand malt, oder ein Deus ex Machina, der alle Probleme lösen soll, von Ineffizienzen im Markt über Klimawandel bis hin zum demografischen Wandel. Das sind naive Heils- und Untergangsszenarien. Eine tiefer gehende Diskussion sucht man in der deutschen Politik vergebens. Das merkt man daran, dass in der Politik immer über die KI gesprochen wird, selbst auf EU-Ebene – als ob es nur die eine gäbe. Es gibt unterschiedliche Arten von künstlicher Intelligenz. Eine generative KI hat nichts mit einer analytischen KI zu tun, die so ziemlich das Gegenteil macht. Solange Politiker die Möglichkeiten von KI nicht realistisch einschätzen und Probleme, die man damit lösen will, nicht klar benennen, ist es unwahrscheinlich, dass Politik die Rahmenbedingungen schafft, um KI sicher, effizient und nutzbringend einzusetzen.

Künstliche Intelligenzen – im Plural – werfen große gesellschaftliche, auch ethische Fragen auf. Wäre es da nicht ratsam, ein wenig bedachter, ein wenig langsamer an das Thema heranzugehen?

Bedachter unbedingt, langsamer halte ich für gefährlich – gerade politisch, weil die Entwicklung international sehr dynamisch verläuft. Wenn wir als Europa bei dem Thema eine prägende Rolle spielen wollen, müssen wir uns sehr schnell bewegen. Ich bin überzeugt, dass es Europa schon jetzt nicht mehr gelingen kann, die USA oder China in ihrem eigenen Spiel zu schlagen. Es gibt aber durchaus noch die Möglichkeit, eine eigene europäische Idee von KI zu setzen, gerade im Bereich der so genannten Explainable AI, also der KI, die ihr Handeln den Menschen erklären kann und die in der Lage ist, Rechenschaft abzulegen.

Was bedeutet das konkret? Wie darf ich mir eine KI vorstellen, die mir gegenüber rechenschaftspflichtig ist?

Nehmen wir das analytische KI-System, das wir entwickelt haben: Es erhebt und analysiert Daten, zeigt ein Bild der Welt, gibt Prognosen und Empfehlungen. Dabei kann man anzeigen lassen, welche Daten die KI dafür heranzieht und auf Basis welcher Modelle und Berechnungen sie etwas empfiehlt. Dafür muss man Algorithmen beibringen, alle Schritte zu protokollieren und nachvollziehbar zu halten. Das macht Arbeit und braucht mehr Daten, geht aber definitiv. Bei generativer KI, die zum Beispiel Texte oder Bilder anfertigt, ist das schwieriger und noch datenintensiver, aber nicht unmöglich. Für einen guten Werbetext muss eine KI jedoch nicht zwangsläufig rechenschaftspflichtig sein – ob er stimmt, kann ich ja als Unternehmen schnell beurteilen. Für eine Analyse, die mir Wahrheit vermitteln soll – zum Beispiel zum Marktpotenzial für ein Produkt oder zu gesetzlichen Rahmenbedingungen –, würde ich allerdings keine KI einsetzen wollen, die nicht ihr Blatt aufdecken kann.

»Verantwortung muss beim Menschen bleiben«

Besteht dann die Chance, dass Menschen KI-Anwendungen nicht nur benutzen, sondern auch vermehrt verstehen wollen?

Wir hoffen das und ermutigen dazu – deshalb sind wir in Verbänden, an Unis und Hochschulen aktiv, geben Webinare, veröffentlichen viel. Wir möchten, dass Wirtschaft und Gesellschaft mit der Technologie bewusst und sinnvoll umgehen. Was Unternehmen als Anwender betrifft, bin ich fest davon überzeugt, dass das Thema Explainable AI zentral wird. Denn da muss ich meine Entscheidungen vor anderen rechtfertigen – vor Vorgesetzten, Gremien, Prüforganisationen, Gerichten. Wenn die fragen, wieso ich so gehandelt habe, will ich nicht mit den Schultern zucken und sagen »Der Computer hat es halt empfohlen«, wenn ich stattdessen eine befriedigende Erklärung geben könnte, die zeigt, dass ich meiner Verantwortung gerecht werde. Arbeit an Maschinen delegieren funktioniert mit KI super – doch Verantwortung muss beim Menschen bleiben.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.