Angenommen, Sie fahren mit einem autonomen Fahrzeug auf eine Kreuzung zu. Der Abstandsmesser des Fahrcomputers stellt fest, dass es für einen Bremsvorgang zu spät ist. Wie soll der Algorithmus entscheiden? Nach links ausweichen und den Radfahrer mitnehmen? Oder nach rechts ziehen und den SUV-Fahrer rammen? Dieses nach dem so genannten Trolley-Problem modellierte moralische Dilemma wurde in verschiedenen Spielarten durchdekliniert. Die ethische Diskussion, die es aufwirft, betrifft nicht nur das autonome Fahren. Sondern beispielsweise auch die Medizin.

Der kanadische Rechtsethiker Ian Kerr entwickelte in einem Gastbeitrag für den "Ottawa Citizen" ein ebenso erhellendes wie verstörendes Gedankenexperiment: Stellen Sie sich vor, Sie erhalten die Diagnose "Verdacht auf Leukämie". Ihre behandelnde Ärztin teilt Ihnen mit, dass sie erst noch IBMs KI-System Watson konsultieren müsse, um sicherzugehen, ob die ärztliche Indikation korrekt ist. Die Ärztin offenbart Ihnen, dass sie mit Watsons Diagnose nicht vollumfänglich übereinstimmt. Sie gibt Ihnen zu verstehen, dass Watson in kniffligen Fällen wie diesem eine Erfolgsrate von 90 Prozent hat, sie hingegen nur 50 Prozent. Die Ärztin setzt Sie zudem darüber in Kenntnis, dass sie vom Krankenhaus angehalten ist, der Empfehlung der künstlichen Intelligenz zu folgen, weil sonst das Risiko einer Klage besteht, wenn sie mit ihrer Diagnose falschliegt.

Die Evidenz ist auf der Seite Watsons. Der Hochleistungsrechner wird mit gigantischen Mengen unstrukturierter medizinischer Datensätze gefüttert und spuckt mit Hilfe maschinellen Lernens Diagnosen aus. Alle fünf Jahre verdoppelt sich laut IBM die Menge medizinischer Daten. Watson wühlt sich durch den Wust aktueller, in Fachzeitschriften veröffentlichter Befunde und verknüpft diese Informationen mit Patientendaten. Der Superrechner, so die Hoffnung der Programmierer, könnte mit Big-Data-Methoden Anomalien im Körper identifizieren und eine passende Medikation vorschlagen.

Wenn Ärzte zu Arzthelfern von Robotern werden, gerät das medizinische Wissen in eine Vertrauenskrise

Doch für den Patienten ergibt sich ein Dilemma: Soll man dem Menschen oder der Maschine vertrauen? In der Spieltheorie wäre der Fall klar. Das streng rational handelnde Individuum, dessen Präferenz das Überleben ist, muss dem Rat des Roboters folgen, der mit 90-prozentiger Wahrscheinlichkeit, also so gut wie immer, richtigliegt. Doch welcher Mensch handelt so? Das Leben ist keine Spieltheorie. Intuitiv würden wohl die meisten dem Menschen vertrauen.

Das Problem, das Kerr mit seinem Gedankenexperiment anspricht, ist gar nicht so sehr die Frage nach der Haftung, wenn Robotern im OP-Saal ein Behandlungsfehler unterläuft, sondern der Vertrauensverlust, der daraus resultiert, dass medizinische Entscheidungen an Maschinen delegiert werden. Vertrauen ist das Fundament des Gesundheitssystems. Wer seinem Arzt nicht vertraut, unterzieht sich keiner Behandlung, mag dessen Fachwissen noch so groß sein. Doch wenn hinter der ärztlichen eine zweite konkurrierende Expertise erwächst, schafft das Misstrauen. Hat der Arzt nicht doch ein wichtiges Detail vergessen, das die Maschine bei ihrer Datenanalyse berücksichtigt hat?

Rechtsethiker Kerr warnt, dass Roboter unter dem steigenden Kostendruck im Gesundheitswesen nicht nur Ärzte ersetzen könnten, sondern wir auch eine Krise des medizinischen Wissens erleben könnten. "Wir stehen am Abgrund einer maschinenbasierten medizinischen Entscheidungsfindung, die so komplex ist, dass weder die Programmierer der Maschine noch die Ärzte, die diese nutzen, in der Lage sind, die Entscheidungsprozesse nachzuvollziehen." Entsteht durch die massenhafte Auswertung von Patientendaten nicht eine Faktizität, die das Expertenwissen unterminiert? Werden Ärzte zu Arzthelfern von Robotern? Wie viel darf eine Maschine überhaupt wissen, was darf sie zur Grundlage ihrer Diagnostik machen? Müssen Roboter nicht auch auf einen medizinischen Kodex, auf ein Berufsethos verpflichtet werden und wie Ärzte einen hippokratischen Eid ablegen? Und: Braucht es vielleicht einen neuen Gesellschaftsvertrag, wenn Maschinen über Leben entscheiden?

Es gibt bereits medizinische Chatbots, wie sie etwa der chinesische Suchmaschinenanbieter Baidu entwickelt hat, die automatisiert Diagnosen erstellen. Die Frage ist, wie diese Roboter programmiert werden. Nach ökonomischen Maximen, dass möglichst wenig Patienten behandelt und die Kosten reduziert werden? Oder nach humanitären und wohlfahrtsstaatlichen Kriterien, dass möglichst viele Menschen einen umfassenden Schutz genießen? Gewiss, jedes Krankenhaus muss haushalten, und die Ökonomisierung des Gesundheitssystems ist schon weit gediehen. Doch die Gefahr besteht darin, dass durch die Automatisierung und Digitalisierung der Solidargedanke weiter erodiert wird. Die Idee hinter diesen Gesundheits-Apps und Chatbots ist, wohlwollend formuliert, die Entlastung des Gesundheitswesens, man könnte aber auch sagen: ein neoliberaler Umbau desselben. Das Smartphone konsultiert man viel häufiger als den Arzt, schätzungsweise 100-mal am Tag. Warum zum Arzt gehen, wenn die Expertise auf dem Handy abrufbar ist? Die Idee vom Smartphone als mobiler Arztpraxis klingt visionär und macht sich gut auf Ärztekongressen. Was bei dieser radikalen Eigenverantwortung aber verschwiegen wird, ist, dass man sich Patienten vom Leib hält.

Das US-Start-up Aspire Health hat ein Computerprogramm entwickelt, das die verbleibende Lebensdauer schwer kranker Patienten vorhersagen soll. Ein Algorithmus durchforstet ärztliche Indikationen nach Diagnosen wie kongestives Herzversagen oder Krebs im Endstadium und gleicht die Krankheitsbilder mit Mustern häufiger Behandlungen ab. "Wir können sagen, welche Patienten in einer Woche, sechs Wochen oder einem Jahr sterben", sagte Bill Frist, ehemaliger Mehrheitsführer der Republikaner im Senat und Mitgründer von Aspire Health, im Gespräch mit dem "Wall Street Journal". Statt im Krankenhaus soll der Todgeweihte palliativmedizinisch zu Hause behandelt werden, wovon man sich Einsparungen für das Gesundheitssystem erhofft. Der Hintergrund: Ein Viertel des jährlichen Budgets der US-Krankenversicherung Medicare, rund 150 Milliarden Dollar, fließt in die Behandlung von Patienten in ihrem letzten Lebensjahr. Das Kalkül ist, dass man sich kostenintensive Untersuchungen sparen kann, wenn man zu wissen glaubt, dass es um den Patienten ohnehin bald geschehen sei. Für jeden Patienten wird ein medizinisches Ablaufdatum errechnet, das ihn als Risikopatienten oder hoffnungslosen Fall ausweist. Ein Algorithmus bestimmt, wie jemand ärztlich versorgt wird. Aus medizinethischer Sicht ist das höchstbedenklich.

Es zeigt sich, dass entscheidende Weggabelungen im Leben – etwa die Frage, welche Behandlungsmethode der Roboter-Arzt vorschlägt oder wohin das autonome Fahrzeug ausweicht – immer mehr zu einer mathematischen Rechenoperation verkommen, bei der es weniger um Ethik als vielmehr um profane Wahrscheinlichkeiten geht. Der Mensch ist in dieser Gleichung nur eine Variable – und damit auflösbar. Er wird auf einen Score reduziert, den irgendein Algorithmus errechnet und der ihm als digitale Kopfnote angehängt wird, von deren Existenz man unter Umständen gar nichts weiß, die aber für die Inanspruchnahme öffentlicher Versorgungsleistungen zentral sein kann. Es wird höchste Zeit, dass man über diese moralischen Dilemmata spricht, bevor Maschinen über unser Schicksal richten.