Direkt zum Inhalt

Künstliche Intelligenz: Nur etwas für Freaks?

Ist die künstliche Intelligenz doch nicht so weit, wie immer wieder gesagt wird? Zumindest in Deutschland und Europa sind die großen Unternehmen extrem zögerlich. Das liegt auch an den Schwächen der Technologie: Entscheidungen moderner maschineller Lernverfahren lassen sich kaum nachvollziehen. Und manchmal liegen sie einfach daneben. Das passt nicht zum Sicherheitsbedürfnis der Konzerne.
Künstliche Intelligenz

Erik Pfannmöller ist eines der seltenen Tiere im »Start-up-Zoo«: Immer mal wieder, wenn ein großes Unternehmen nicht so recht weiterweiß und einen Unternehmensberater beauftragt, dann ist er gefragt. Er ist eines dieser seltenen Exemplare, das heute schon künstliche Intelligenz anwendet. Nicht in der Forschung, auf dem Markt! Der ehemalige Weltmeister im Kanuslalom hat nach seinem sportlichen Karriereende und einem einjährigen Selbststudium Solvemate gegründet: einen Chatbot, der Probleme löst. Dieser löchert den Nutzer auf der Basis maschinellen Lernens systematisch mit Fragen, die jener mit Ja oder Nein beantworten kann – so lange, bis das System die Antwort weiß.

Pfannmöller fand es logisch, im Bereich KI zu investieren. Er hatte einfach das berücksichtigt, was wir alle seit Jahren hören – dass künstliche Intelligenz alles verändern wird. Doch offenbar sind Menschen wie er auch im Jahr 2018 Exoten. Unternehmen misstrauen der künstlichen Intelligenz trotz aller Beteuerungen, diesmal sei wirklich alles bereit: Die Rechenpower ist da, und tolle neue Verfahren wie Deep Learning lösen Revolutionen aus beispielsweise beim automatischen Übersetzen ebenso wie in der Bilderkennung. Aber diese Revolutionen scheinen sich nach wie vor zu großen Teilen auf Forschungslabore, einige amerikanische Großkonzerne und Start-ups zu beschränken. Zumindest in Deutschland ist in der Breite wenig von KI-Anwendungen mitzubekommen.

Dabei gibt es immer wieder Aufsehen erregende Studien, die verkünden, was KI nun schon alles über uns herausfinden kann: Sie kennt uns besser, als unsere Freunde uns kennen, weiß mehr als unser Partner über uns. Das zumindest behaupten jene, die von solchen Entwicklungen profitieren. Immer mal wieder geistern Studien durch die Medien, die beispielsweise aus Twitter-Daten vorhersagen, ob jemand eine psychische Krankheit entwickelt, oder aus Facebook-Posts die Persönlichkeit berechnen, für deren Definition Psychologen fünf Fragebögen und sechs Monate persönliche Gespräche benötigen.

Mehrere Wahrheiten

Doch die Wahrheit über die künstliche Intelligenz ist eine andere: Die modernen Algorithmen sind zwar sehr gut darin, Muster in großen Mengen unstrukturierter Daten zu finden, und sie werden täglich besser. Aber manche jener Studien, die Empörungswellen nach sich ziehen, zeigen bei genauerem Hinsehen keine besonders hohe Genauigkeit. Forscher sorgen sich zudem, weil der Weg der Erkenntnis des maschinellen Lernens nicht nachvollziehbar ist. Manchmal kommen die Algorithmen zu Schlüssen, die Menschen überraschen – und das kann alles sein von peinlich (wie der Vorfall mit der Google-Bilderkennung, die dunkelhäutige Menschen zu Gorillas erklärte) bis zu gefährlich (wenn man an autonome Autos oder den militärischen Einsatz von Drohnen denkt).

Trotz ihrer Bedenken sind Forscher jedoch immer wieder überrascht, wie wenig die neue Technologie Einzug in Unternehmen hält. Selbst bei jenen, die als Pioniere der KI gehandelt werden. So erklärte kürzlich ein IBM-Deutschland-Vertreter Computerlinguisten, wie das Unternehmen für seine Kunden – beispielsweise Supermärkte – ein Stimmungsbild aus sozialen Netzwerken extrahiert. Die Wissenschaftler hatten selbst viel Erfahrung darin, automatisiert Sinn aus Tweets oder Facebook-Posts zu schöpfen. Sie kannten verschiedene Ansätze, wie ein maschinelles Lernverfahren aus den Tweets beispielsweise das Geschlecht eines Nutzers berechnete oder ob dieser wohl Kinder habe – ähnlich wie die eingangs erwähnten Verfahren, die allein an der Wortwahl erkennen, ob jemand depressiv ist. Sie kannten die Hürden jener Verfahren, aber auch die rasanten Fortschritte der Musterkennung dank künstlicher neuronaler Netze. Sie waren neugierig, wie sie die Praxis voranbringen: Welches Unternehmen steht so sehr für künstliche Intelligenz wie die »Watson-Mutter«? Die Enttäuschung war groß: »Die machen das gar nicht!«, entfährt es einem der Forscher im Rückblick, »die sind total basic.«

In der Tat: Wer bei IBM selbst nachfragt, erfährt von Alexander Lang, Chief Data Scientist für Watson Analytics for Social Media, dass diese Analyse gespickt ist von programmierten Regeln, während maschinelles Lernen nur am Rande genutzt wird. Geschlechtserkennung? Dafür ist eine Liste mit Vornamen eingebaut. »Wir finden das immerhin bei 50 Prozent der Nutzer heraus.« Hobbys der Nutzer? Das, was sie in ihrem Profil angeben. Nur: Die wenigsten geben Hobbys an. Kann man sie nicht viel besser mit künstlicher Intelligenz aus den Posts an sich extrahieren? »So genügt es uns«, sagt Lang. Ebenso die Erkennung von Eltern – für viele Unternehmen eine besonders interessante Kundengruppe: Die Watson-Erkennungsraten in Social Media und Foren liegen laut Lang bei rund fünf Prozent. Nur fünf Prozent? Es reicht, sagt Lang einmal mehr: »Bei 200 000 Profilen sind das 10 000 Nutzer – da müssten Sie lange vor dem Supermarkt stehen und Umfragen machen.« Das System erkennt, wenn jemand »Die Schokonusscreme von X ist besser als die von Y!« schreibt, und verteilt einen Pluspunkt an X und einen Minuspunkt an Y – auf Grund vorgegebener syntaktischer Regeln.

Während sich Computerlinguisten mehrheitlich darüber einig sind, dass dieses klassische Regelnprogrammieren Probleme deutlich schlechter löst, als wenn man neuronale Netze ihre eigenen Schlüsse aus Trainingsdaten ziehen lässt, halten die KI-Pioniere an den alten Regeln fest – weil es angeblich reicht. Wenn jemand »meine Frau« twittert, dann geht Watson auf Grund einer einprogrammierten Regel davon aus, dass dieser a) ein Mann und b) verheiratet ist. »Das ist simpel genug, um es mit einer Regel zu machen«, sagt Lang – obwohl angefangen von lesbischen Frauen bis hin zu einer Lüge vieles andere denkbar ist, was eine künstliche Intelligenz aus den Posts errechnen könnte. Wenn man sie darauf loslassen würde. Aber IBM hält seine viel gerühmte KI an der kurzen Leine – zumindest wenn man für Kunden arbeitet. Es ist die sichere Variante: So ist das System unter Kontrolle.

German Angst?

Aber ist das, »was reicht«, gut genug für die Zukunft? Allenthalben bemängeln Experten, die deutsche Wirtschaft sei im KI-Bereich nicht gut aufgestellt. Wer sich in der Start-up-Szene rund um maschinelles Lernen in Deutschland umhört, hört kaum Widerspruch zur These, dass IBM seine künstliche Intelligenz nicht von der Leine lässt. Wenn Fabian Westerheide, Investor und KI-Experte, einen seiner Vorträge vor Start-up-Gründern im Bereich KI hält und fragt: »Wer ist mit Watson zufrieden?«, dann nickt keiner. Die Vision der Gründer ist deutlich radikaler als die der Pioniere. »Die meisten Start-ups sind innovativer.«

Das mag an einer anderen Einstellung liegen, die womöglich besser zur Technologie der künstlichen Intelligenz passt als das Sicherheitsbedürfnis der großen Unternehmen. Pfannmöllers Kunden sind Unternehmen, die den Service des problemlösenden Chatbots wiederum an ihre (End)Kunden weitergeben. Dafür trainiert jedes Unternehmen den Chatbot selbst mit seinen Kundenfragen und -antworten. Aktuell liegt das System zu 72 Prozent richtig. Das heißt im Gegenzug aber auch, dass es ungefähr jede vierte Frage nicht oder falsch versteht. Das verursacht bei Pfannmöller nur ein Schulterzucken. Vor falschen Antworten hat der Gründer keine Angst. »Unsere KI lernt mit jeder Frage und Antwort dazu«, sagt er; es kann nur besser werden. Zudem spare jede richtige Antwort den Kunden viel Zeit, die sie dann nicht mehr in der Warteschleife einer Telefonhotline verbringen müssen.

Zudem kann man mit dieser Unsicherheit umgehen, davon sind Christian Wolf und Tina Klüwer vom Berliner Start-up Parlamind überzeugt. Sie haben eine künstliche Intelligenz entwickelt, die Mails mit Kundenanfragen liest, auswertet und selbstständig beantwortet. Sie kann selbst einschätzen, wie sicher sie sich ist, eine Anfrage richtig verstanden zu haben – und die Kunden von Parlamind können festlegen, ab welcher Sicherheit sie die Antwort sofort rausschickt und wann noch ein Mensch daraufschauen soll.

»Viele Chatbots schauen nur nach einzelnen Schlüsselwörtern«, sagt Klüwer, »unsere Modelle sind komplexer.« Die Gründer programmieren keine Regeln, sie verlassen sich ganz auf die maschinelle Intelligenz, die aus den Vorlagen lernt: »Maschinen extrahieren das Wissen selbst.« Vor der viel zitierten Blackbox hat Wolf keine Angst. »100-prozentig fehlerfrei ist das praktisch nie, aber auch kein Mensch ist perfekt.« Selbst falsche Rechtschreibung, fehlende Interpunktion und Ähnliches, was üblich ist in dieser Domain, bringt das System nicht durcheinander. Es ist auf diesen Fall trainiert und dafür gut. Dass viele große Unternehmen nach wie vor Regeln programmieren, obwohl das eigentlich nicht mehr Stand der Technik ist, hat aus Klüwers Sicht historische Gründe. »Ich sehe in Deutschland vor allem den Bedarf, besser zu verstehen, was KI bedeutet«, sagt sie.

Und natürlich arbeiten Forscher bereits an Lösungen, damit KI sich selbst erklären kann und die viel zitierte Blackbox zumindest ein wenig ausgeleuchtet wird. Denn auf neueste Technologien wie beispielsweise Deep Learning zu verzichten, sei keine Option, so die Expertin für maschinelles Lernen Sorelle Friedler vom Haverford College in Philadelphia: »Diese Verfahren sind beeindruckend gut darin, Daten zu klassifizieren«, sagt sie. »Wir sollten eine Lösung finden, wie sie sich selbst erklären.«

Fairness der Algorithmen

Das hält sie für erfolgversprechender als den anderen Weg: die Verfahren von ihren Fehlannahmen zu befreien. Friedler arbeitet vor allem im Bereich der Fairness von Algorithmen und hat lange versucht, angesichts rassistisch gefärbter Ergebnisse von Mustererkennungsverfahren entsprechende Faktoren aus den Trainingsdaten zu löschen. Wenn ein Algorithmus die Hautfarbe nicht kennt, kann er sie auch nicht in seine Entscheidung einbeziehen. Das ist aber zu kurz gedacht: »Wenn man alle Daten löscht, aus denen beispielsweise die Hautfarbe hervorgeht, zerstört man seine Daten komplett.« Das liegt schlicht daran, dass diese Verfahren Muster und Korrelationen viel besser erkennen als wir Menschen – weshalb wir immer etwas übersehen werden: »Du kannst alles entfernen, was aus deiner Sicht darauf schließen lässt, und dann versuchen, die Hautfarbe vorherzusagen«, sagt sie: In vielen Fällen hat der Computer dennoch auf die Hautfarbe geschlossen. »Wenn du jedes dieser Attribute entfernst, entfernst du am Ende alle deine Daten.«

Wojciech Samek, der Leiter der Forschungsgruppe für Maschinelles Lernen am Fraunhofer Heinrich-Hertz-Institut HHI in Berlin, setzt am anderen Ende an: Er lässt ein neuronales Netz zur Bilderkennung quasi rückwärtslaufen und kann so sehen, an welchem Punkt eine Gruppe Neurone welche Entscheidung getroffen hat und welches Gewicht diese für das Endergebnis bekam. Die Fraunhofer-Forscher zeigten so beispielsweise, dass sich eine Software bei einem Foto von Zügen an den Gleisen und an der Bahnsteigkante orientierte – den Zug selbst hatte das Netz nicht für besonders wichtig erachtet. Es würde also womöglich auch auf einem Bild einen Zug erkennen, auf dem lediglich Schienen und eine Bahnsteigkante sind. Ähnlich erging es einem Programm, das Fotos von Pferden erkannte: Die Forscher zeigten, dass es sich nicht auf den Inhalt des Bildes stützte, sondern lediglich auf die Copyright-Angabe, die auf Pferdeforen verwies. Wenn Menschen sehen, welche Faktoren die künstliche Intelligenz als relevant erachtet, können sie einschätzen, ob das Ergebnis seriös ist oder ob es einer Verzerrung unterliegt.

Fehlt die kulturelle Bereitschaft?

Aber es geht nicht nur um die Technik. »Es mangelt auch an der kulturellen Bereitschaft«, sagt Investor Westerheide, »an der Idee, dass Ingenieure Software verkaufen.« Am Ende spielt weniger das Äußere eines autonomen Autos eine Rolle als vielmehr die Software, die es steuert. Das verlangt von den deutschen Großunternehmen ein radikales Umdenken, schließlich ist das ein ganz anderes Geschäftsmodell

Laut einer Studie des Leipziger Thinktanks 2b-Ahead sehen die Entscheider sogar ein, dass sie sich mehr mit der Technologie beschäftigen müssen, aber offenbar fühlen sie sich teilweise ausgebremst von der Trägheit großer Unternehmen. Zudem haben sie Sorgen, wie sie das den Mitarbeitern vermitteln sollen. »Wie bringe ich Teams bei, dass Technologie zum Teil bessere Entscheidungen trifft als ein erfahrener Kollege, der das seit 20 Jahren macht?«, fragt Studienleiter Michael Carl. Zudem sei ein kurzfristiger Erfolg meist schneller zu erreichen, wenn das Einsatzgebiet möglichst eng eingegrenzt werde: »Um rasch einen großen Effekt zu erzielen, muss ich das Problem möglichst spitz halten und Regeln programmieren.« Breite KI-Anwendungen hingegen gebe es noch kaum in der Praxis.

An dieser Breite arbeitet der Berliner Christian Thurau. Sein Start-up Twenty Billion Neurons will künstlicher Intelligenz die Welt erklären. Dafür bringt es neuronalen Netzen bei, zu erkennen, was in Videos geschieht. An sich eine große Aufgabe, denn es müssen nicht nur Bilder, sondern auch ein gewisser Sinn dahinter erkannt werden. »Man möchte verstehen: Was passiert da eigentlich?«, sagt Thurau. Die Gründer zerlegen das Problem in viele kleine lösbare Einheiten. Dafür beauftragten sie Crowdworker aus dem Netz, sich bei allerlei alltäglichen Handlungen zu filmen. »Wir haben das Label vorgegeben, beispielsweise: ›eine Tasse Kaffee trinken‹.«

Damit haben sie die klassische Herangehensweise auf den Kopf gestellt: Normalerweise suchen Forscher Videos – beispielsweise von der Tätigkeit Kaffeetrinken – und lassen sie von Menschen annotieren. Das ist viel mühsamer, da diese Filme erst mal gefunden und die entsprechenden Szenen extrahiert werden müssen. Thuraus systematische Herangehensweise ist erstaunlich effizient, zudem besitzt das Start-up nach eigener Aussage mit 350 000 Videos den größten Datensatz der Welt im Bereich Videoerkennung, den es zudem für die Forschung zur Verfügung stellt. Ein verblüffend pragmatischer Einfall – nur muss man erst einmal darauf kommen. Vielleicht braucht es ein Start-up, um derart um die Ecke denken zu können.

12/2018

Dieser Artikel ist enthalten in Spektrum - Die Woche, 12/2018

Lesermeinung

2 Beiträge anzeigen

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnervideos