Direkt zum Inhalt

Lobes Digitalfabrik: Risikogruppe? Das bestimmt der Computer!

Wer geimpft wird, entscheidet in den USA der Computer. Auch in Deutschland liebäugelt man mit solchen intransparenten Algorithmen, schreibt unser Digitalkolumnist Adrian Lobe.
Bei der Software-Entwicklung

Die Frage, wer zuerst die Corona-Schutzimpfung erhält, bestimmt seit Wochen die Agenda. In Deutschland hat die Bundesregierung auf Empfehlung des Ethikrats eine Impfreihenfolge beschlossen. In den USA und Großbritannien entscheiden hingegen Algorithmen, wer zuerst einen Piks in den Oberarm bekommt.

So hat das US-Gesundheitsministerium noch unter der Trump-Administration im Rahmen der Operation Warp Speed eine Softwareplattform gestartet, die mit Hilfe eines Computerprogramms ermittelt, wie viel Impfstoff in welche Gebietskörperschaft (Bundesstaat und große Metropolen) verteilt wird. Die Plattform Tiberius verarbeitet dazu eine Reihe von Daten (unter anderem Zensusdaten aus dem American Community Survey).

Aus mathematischer Sicht ist der Verteilungsschlüssel eigentlich nicht sonderlich kompliziert, trotzdem wächst die Kritik an dem »Black-Box-Algorithmus«, weil die Berechnung der Öffentlichkeit nicht transparent gemacht wird. Warum der eine Bundesstaat mehr Dosen bekommt und die eine Person früher dran ist, weiß niemand. Zu der allgemeinen Verunsicherung trägt auch der Umstand bei, dass die Computersoftware von der obskuren Überwachungsfirma Palantir entwickelt wurde, die Spionageprogramme für Unternehmen, Polizeibehörden und Geheimdienste auf der ganzen Welt verkauft (unter anderem auch an die Polizei in Hessen).

»Spektrum«-Kolumnist Adrian Lobe kommentiert den digitalen Wandel. Wie gehen wir um mit fortschreitender Digitalisierung? Wie mit Bots und Meinungsmaschinen? Und welche Trends dominieren die Gesellschaft in Zukunft?
Alle Folgen von »Lobes Digitalfabrik« finden Sie hier.

Zahlreiche US-Krankenhäuser setzen mittlerweile auf solche Formeln, um den Impfstoff schneller zu verteilen. Nach dem Motto: Bevor man lange über Priorisierungen diskutiert, hat der Algorithmus die Verteilung längst errechnet. Doch Anspruch und Wirklichkeit klaffen meilenweit auseinander. So hat der Algorithmus, der am Stanford Medical Center eine Priorisierungsliste für 5000 Impfdosen erstellen sollte, das Expositions- beziehungsweise Ansteckungsrisiko des medizinischen Personals massiv unterschätzt. Nur sieben Ärzte, die direkten Kontakt mit Patienten hatten, sollten geimpft werden. Angestellte, die von zu Hause aus arbeiteten und keinen Kontakt zu Infizierten hatten, standen dagegen ganz vorne auf der Liste. Das Problem: Der Algorithmus berücksichtigte zwar Faktoren wie Alter und Job, nicht aber die Nähe zu Patienten. Nachdem die Priorisierung öffentlich wurde, protestierten die Klinikärzte gegen die Ungleichbehandlung: »First in the room, back of the line« – Erster im Raum, letzter in der Schlange.

Algorithmen bemerken ihre kuriosesten Fehler nicht

Auch in Großbritannien determinieren Algorithmen die Impfreihenfolge – wenngleich nur indirekt. So haben Wissenschaftler der University of Oxford einen Algorithmus entwickelt (QCovid Risk Assessment), der anhand von Gesundheitsdaten wie Fettleibigkeit, Vorerkrankungen und Alter ein Risiko für einen schweren Verlauf errechnet. Diese Risikogruppen werden in der Impfstrategie berücksichtigt. Doch auch hier produziert der Algorithmus fehlerhafte Ergebnisse. So bekam ein 32-jähriger Journalist aus Liverpool einen Impftermin, weil beim Nationalen Gesundheitsdienst (NHS) seine Körpergröße mit 6,2 Zentimeter (statt korrekt mit 6,2 Fuß) angegeben war. Diese Zwergenhaftigkeit ließ seinen Body-Mass-Index auf unvorstellbare 28 000 hochschnellen, was ihn sofort zum Angehörigen einer Risikogruppe machte. Offensichtlich war keinem der Beamten der Fehler aufgefallen.

Die britische Verwaltung setzt verstärkt auf automatisierte Systeme. Weil wegen der Corona-Pandemie keine Klausuren geschrieben werden konnten, wurden im vergangenen Sommer die Schulnoten algorithmisch errechnet. Anhand von historischen Daten – der Häufigkeitsverteilung von Schulnoten in den Vorjahren – ermittelte die Software eine Wahrscheinlichkeit für künftige Schülerleistungen. Doch der Algorithmus erwies sich als äußerst strenger Lehrer: Er stufte 40 Prozent der Abiturnoten herab. Hunderte Schüler und Studenten zogen vor das Bildungsministerium und skandierten »Fuck the algorithm«. Viele sehen sich ihrer Zukunftschancen beraubt – und bangen um einen Studienplatz.

Auch in Deutschland greift die öffentliche Verwaltung laut einem Bericht von Algorithm Watch auf automatisierte Entscheidungssysteme zurück, etwa bei der Identitätsfeststellung von Geflüchteten oder der Vorhersage von Einbruchskriminalität. Je mehr diese Instrumente zum Einsatz kommen, desto wichtiger wird die Frage nach ihrer Transparenz. Welche Daten werden der Berechnung zu Grunde gelegt? Welche Faktoren berücksichtigen die Modelle? Wer legt die Kriterien fest?

Es stimmt schon: Nur weil ein Verwaltungsakt automatisiert erfolgt, heißt das noch nicht, dass Herrschaft illegitim ist. Bei einer Ampel steht ja schon lange kein Mensch mehr und wechselt per Hand das Licht von Grün auf Rot. Doch die Frage, wer als Nächstes ins Impfzentrum darf, ist ja eine ganz andere als die, wer als Nächstes über die Kreuzung darf. Schließlich ist der Impfstatus mit einer Rückgewinnung von Freiheitsrechten verknüpft.

Das Regieren in der Coronakrise ist ohnehin schon formelhaft. Wenn Inzidenzwert unter 50, dann Lockerung. Wenn über 100, dann Lockdown. Die Debatte gleicht oftmals einer Kurvendiskussion. Umso wichtiger ist es, dass sich die Gesellschaft Diskursräume offen hält, in denen man nicht allein mit mathematischen Modellen und Statistiken hantiert. Die Frage, wer bei der Impfung als Nächstes an die Reihe kommt, ist zu politisch, als dass sie einem Black-Box-Algorithmus einer privaten Firma überantwortet werden könnte. Ein öffentliches Gut wie die Gesundheit muss auch öffentlich verhandelt werden.

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.