Direkt zum Inhalt

KI erkennt Krankheit: Alexa, habe ich Covid-19?

Wissenschaftler untersuchen, welche nützlichen Informationen die Stimme eines Menschen für die Diagnose von Erkrankungen liefert – von Corona-Infektionen bis hin zu Demenz, Depressionen und mehr.
Smart Speaker AssistantLaden...

Als das erschütternde Ausmaß der Coronavirus-Pandemie im März 2020 langsam klar wurde, haben Verantwortliche auf der ganzen Welt die Öffentlichkeit nach und nach zum Mitkämpfen ins Boot geholt. Krankenhäuser riefen lokale Unternehmen dazu auf, Gesichtsmasken zu spenden. Forscher ermutigten genesene Covid-19-Patienten zu Blutplasmaspenden. Und in Israel baten das Verteidigungsministerium und das Start-up-Unternehmen Vocalis Health Freiwillige um die Spende ihrer Stimme.

Vocalis, ein Sprachanalyse-Unternehmen mit Niederlassungen in Israel und den Vereinigten Staaten, hatte eine Smartphone-App entwickelt, die eine chronisch obstruktive Lungenerkrankung im Anfangsstadium erkennt. Ausgewertet werden dafür Anzeichen von Atemnot beim Sprechen. Das Unternehmen wollte dasselbe nun auch bei Covid-19 nutzen: Personen, die positiv auf das Coronavirus getestet worden waren, konnten nach dem Download der Vocalis-Forschungs-App einfach teilnehmen. Sie aktivierten die App dann einmal täglich und sprachen in ihre Telefone, wobei sie ein Bild laut beschrieben und von 50 bis 70 zählten.

Die maschinellen Lernsysteme von Vocalis verglichen die Aufnahmen dann mit den Stimmen von negativ auf Covid-19 getesteten Menschen, um einen für die Krankheit charakteristischen Stimmabdruck einzugrenzen. Im Hochsommer hatte die Firma mehr als 1500 Stimmproben und die Pilotversion eines digitalen Covid-19-Screening-Tools zusammen. Sie wird jetzt weltweit getestet. Das Ziel ist dabei nicht, zweifelsfreie Diagnosen zu liefern, sondern den Kliniken Unterstützung bei der Vorsortierung von Verdachtsfällen zu geben: Das Tool soll die Personen identifizieren, die am dringendsten getestet, in Quarantäne gebracht oder direkt medizinisch versorgt werden müssen. Tal Wenderow, der Präsident und Vorstandsvorsitzende von Vocalis, erklärt, das Unternehmen wolle herausfinden, ob der KI-Algorithmus hilfreich unterstützen könne: Der Ansatz sei »nicht invasiv und kein Medikament. Wir verändern nichts. Alles, was Sie tun müssen, ist sprechen«.

Das Unternehmen ist nicht das einzige auf der Suche nach COVID-19-Signaturen in der Stimme: Mindestens drei andere Forschungsgruppen arbeiten an ähnlichen Projekten. Weitere Teams analysieren Audioaufnahmen von hustenden Covid-19-Patienten oder entwickeln Algorithmen, die erkennen sollen, ob ein Sprecher eine Gesichtsmaske trägt.

An all dem wird der aktuelle enorme Profilierungswille des jungen Forschungsfeldes Stimmdiagnostik deutlich. In den vergangenen zehn Jahren haben Wissenschaftler künstliche Intelligenz (KI) und Maschinenlernsysteme eingesetzt, um Stimmen-Biomarker für eine Vielzahl von Erkrankungen zu identifizieren – darunter Demenz, Depression, Autismus-Spektrum-Störungen und sogar Herzkrankheiten. Die dabei entwickelten Technologien erkennen subtile Unterschiede in der Art und Weise, wie Menschen mit bestimmten Krankheiten sprechen. Weltweit steigen Unternehmen ein, um die Technik zu kommerzialisieren.

Siri als Arzthelferin

Die meisten Teams gehen derzeit noch langsam und schrittweise vor, sie entwickeln zum Beispiel maßgeschneiderte Instrumente für den Einsatz in Arztpraxen oder für klinische Studien. Viele träumen aber von einem großflächigen Einsatz der Technik. Dabei sollen die in Alltagsgeräten allgegenwärtigen Mikrofone mithelfen, Krankheiten oder Störungen aufzuklären. Solche Systeme könnten es Epidemiologen eines Tages erlauben, über Smartphones die Ausbreitung von Krankheiten zu verfolgen, oder sie mit Hilfe von intelligenten Lautsprechern in medizinische Geräte für zu Hause zu verwandeln.

»In Zukunft wird Ihr Roboter – Ihre Siri, Ihre Alexa – schlicht ›Oh, Sie sind erkältet‹ sagen«, erklärt Björn Schuller, ein Spezialist für Sprach- und Emotionserkennung, der an der Universität Augsburg und dem Imperial College London arbeitet und eine der Covid-19-Studien leitet.

Die automatisierte Stimmanalyse ist allerdings immer noch ein neues Gebiet und birgt eine Reihe potenzieller Fallstricke, von fehlerhaften Diagnosen bis hin zum Eindringen in die persönliche und medizinische Privatsphäre. Viele Studien sind klein und vorläufig, und es wird nicht einfach sein, vom Proof-of-Concept zum Produkt zu gelangen. »Wir stehen hier am Anfang«, sagt Schuller.

Manche Erkrankungen können deutlich wahrnehmbare Veränderungen der Stimme verursachen; man denke etwa an die charakteristische Heiserkeit bei einigen Allergien. Viele Wissenschaftler vermuten, dass man angesichts der hohen Komplexität der Sprache eine große Zahl von Störungen mit Hilfe der Stimmanalyse identifizieren könnte.

Sprachsignale

Beim Sprechen müssen zahlreiche anatomische Strukturen und Systeme koordiniert werden: Aus der Lunge strömt Luft über die Stimmbänder, was Töne erzeugt, die dann unter anderem von der Zunge, den Lippen und den Nasenhöhlen verändert werden. Das Gehirn reguliert diese Prozesse zusammen mit anderen Teilen des Nervensystems und formt so die Worte eines Sprechers. Wenn eine Krankheit in eines dieser Systeme eingreift, kann das Spuren in der Sprache hinterlassen, die dann diagnostische Hinweise liefern.

Maschinenlernen erlaubt es der Wissenschaft, solche Aberrationen schnell und detailliert zu erkennen. Forscher können die Computer mit Hunderten oder Tausenden von Stimmproben füttern, um nach Merkmalsunterschieden zwischen Gesunden und Kranken zu suchen.

Die ersten Arbeiten auf dem Gebiet hatten sich dabei meist auf die Parkinson-Krankheit fokussiert, die bekannte Auswirkungen auf die Sprache hat – und für die es keinen endgültigen diagnostischen Test gibt. Die Erkrankung verursacht eine Vielzahl von motorischen Symptomen, etwa Zittern, Muskelsteifheit oder Probleme mit dem Gleichgewicht und der Koordination. Der Kontrollverlust erstreckt sich auch auf die an der Sprache beteiligten Muskeln; als Folge davon sprechen viele Parkinson-Kranke in gedämpfter und weicher Stimmlage. »Das ist eines der Dinge, die man mit dem menschlichen Ohr hören kann«, sagt Reza Hosseini Ghomi, Neuropsychiater bei EvergreenHealth in Kirkland, Washington. Er hat Stimmmerkmale identifiziert, die mit verschiedenen neurodegenerativen Krankheiten in Verbindung gebracht werden können. »Aber wenn man 10 000 Proben und einen Computer bekommt, kann man viel genauer arbeiten«.

Max Little forscht an der Universität Birmingham in Großbritannien über maschinelles Lernen und Signalverarbeitung. Er hatte schon vor über einem Jahrzehnt begonnen zu untersuchen, ob die Sprachanalyse Ärzten helfen könnte, schwierige Diagnosen zu stellen. In einer Studie analysierten Little und seine Kollegen dabei Tonaufnahmen der Silbe »Aahh«, die 43 Erwachsene eingesprochen hatten, davon 33 Parkinson-Patienten. Mit Hilfe von Sprachverarbeitungsalgorithmen analysierten sie 132 akustische Charakteristika jeder Aufnahme und identifizierten schließlich zehn von diesen, die eine Parkinson-Diagnose am ehesten zu stützen schienen – darunter Merkmale wie Atmung und zitternde Schwingungen in Tonhöhe und Klangfarbe. Allein anhand dieser zehn Merkmale konnte das System schließlich Sprachsamples von erkrankten Menschen mit fast 99-prozentiger Genauigkeit identifizieren.

Little und andere haben auch gezeigt, dass bestimmte Stimmmerkmale mit dem Schweregrad der Parkinson-Symptome korrelieren. Die Systeme arbeiten noch nicht verlässlich genug für den Routineeinsatz in der klinischen Praxis, sagt Little, aber es gibt viele potenzielle Anwendungen. Stimmanalysen könnten schnell und kostengünstig das Infektionsgeschehen von einzelnen Personen mit hohem Erkrankungsrisiko oder größeren Bevölkerungsgruppen überwachen. Es wäre sogar denkbar, einen Telefonservice zur Ferndiagnose von Personen aufzubauen, die keinen direkten Zugang zu einem Neurologen haben. Die Patienten könnten dabei vielleicht zu Hause eine Smartphone-App einsetzen, um die eigenen Symptome und die Wirksamkeit von Medikamenten im Auge zu behalten. »Mit der Technik werden schnell verfügbare Momentaufnahmen möglich, die dann eine fast flächendeckende Folge von Beobachtungen der sich verändernden Symptome eines Patienten liefern können«, sagt Little.

Forscher arbeiten nun daran, sprachbasierte Biomarker für andere Arten von neurodegenerativen Erkrankungen zu identifizieren. So hat beispielsweise ein Wissenschaftlertrio in Toronto, Kanada, anhand von Stimmproben und Transkripten von mehr als 250 Personen Dutzende Unterschiede in der Sprache von Menschen mit möglicher oder wahrscheinlicher Alzheimerkrankheit sowie der von Menschen ohne Alzheimerkrankheit identifiziert. Die Alzheimerpatienten unter den Teilnehmern verwendeten kürzere Wörter, ein kleineres Vokabular und abgehackte Sätze. Sie wiederholten sich häufiger und setzen eher Pronomen wie »es« oder »dieses« als echte Hauptwörter ein. »Das kann ein Zeichen dafür sein, dass sie sich an die Namen von Dingen einfach nicht erinnern und stattdessen Pronomen verwenden müssen«, sagt der Informatiker Frank Rudzicz von der Universität Toronto, der die Studie leitete.

Das System konnte Alzheimerpatienten mit 35 kombiniert ausgewerteten Stimmmerkmalen mit einer Genauigkeit von 82 Prozent identifizieren. (Ein Wert, der sich seither auf etwa 92 Prozent verbessert hat, wie Rudzicz anmerkt. Unter den Fehlern fänden sich anteilig ziemlich gleichmäßig falsch negative und falsch positive Vorhersagen.) »Diese Merkmale werden in Summe zu einer Art Fingerabdruck der Demenz«, sagt Rudzicz. »Sie bilden ein sehr kompliziertes, verborgenes Muster, das für unseren oberflächlichen Blick kaum zu erkennen ist. Maschinenlernsysteme können es aber aus ausreichend großen Datensätzen herauslesen.«

Einige der Stimmveränderungen treten in den Frühstadien neurodegenerativer Erkrankungen auf. Die Forscher hoffen daher, dass Stimmanalysen in Zukunft zu einer möglichst frühen Diagnose beitragen – auf deren Grundlage man dann möglicherweise schon eingreifen könnte, bevor andere, auffälligere Symptome auftreten.

Im Moment bleibt diese Idee allerdings noch weitgehend theoretisch. Wissenschaftler müssen große, lang andauernde Längsschnittstudien durchführen, um nachzuweisen, dass die Stimmanalyse Krankheiten tatsächlich schneller erkennen kann als die Standard-Diagnoseverfahren.

Einige Klinikmediziner denken, dass eine bloße Stimmanalyse ohnehin selten definitive Diagnosen liefern dürfte. »Ich sammle viele Informationen, wenn ich die Stimme von jemandem höre«, sagt Norman Hogikyan, ein Laryngologe an der Universität von Michigan in Ann Arbor. »Damit verdiene ich meinen Lebensunterhalt. Zudem lasse ich die Patientengeschichte und die Ergebnisse meiner Untersuchungen einfließen: Alle drei Wege der Begutachtung sind wichtig.«

An der Forscherfront betont man, das Ziel würde nicht darin bestehen, Ärzte zu ersetzen oder ein Stand-alone-Diagnosegerät zu erfinden. Die Stimmanalyse wird hier eher als ein Werkzeug für die möglichst informierte Diagnose der Mediziner gezeichnet, nicht als ein weiteres »Vitalzeichen«, das man überwacht oder per bestelltem Schnelltest auswertet. »Meine Vision ist, dass das Sammeln von Sprachproben so verbreitet wird wie ein Bluttest«, sagt Isabel Trancoso, die über Sprachverarbeitung an der Universität Lissabon forscht.

Erweitern von Anwendungen

Eine Reihe von Sprachanalyse-Start-ups stellt schon Software für die Pharmabranche zur Verfügung – so auch Winterlight Labs, ein von Rudzicz mitbegründetes Unternehmen in Toronto, und Aural Analytics in Scottsdale. Oft soll mit der Technik bewertet werden, ob die Teilnehmer an klinischen Studien auf eine experimentelle Behandlung ansprechen. »Sprache ist in subtiles Vorhersageinstrument, an dem neurologische Veränderungen abgelesen werden können. Das kann hilfreich sein, um Medikamente in der Forschungspipeline über die Ziellinie zu bringen; zumindest könnte man nicht viel versprechende Ansätze frühzeitig identifizieren«, sagt Visar Berisha, Mitbegründer und Chief Analytics Officer bei Aural Analytics.

Neurodegenerative Erkrankungen stehen am Anfang des Forschungsfeldes. Auch bei Kindern mit neuronal bedingten Entwicklungsstörungen konnten Wissenschaftler charakteristische Sprachmuster identifizieren. Schuller und seine Kollegen erkannten in einer kleinen Studie aus dem Jahr 2017 bei der Analyse des Gebrabbels von zehn Monate alten Säuglingen, dass die Algorithmen mit einiger Genauigkeit eine später diagnostizierte Autismus-Spektrum-Störung bei den Kindern vorhersagen können. Das System klassifizierte etwa 80 Prozent der Kinder mit Autismus und 70 Prozent der neurotypischen Kinder korrekt.

Zudem sprechen Kinder mit einer Aufmerksamkeitsdefizit-Hyperaktivitätsstörung lauter und schneller als ihre neurotypischen Altersgenossen, wobei eine stärke Belastung in den Stimmmustern herauszuhören ist, wie andere Forscher herausgefunden haben. Die Firma PeakProfiling in Berlin entwickelt nun ein klinisches Sprachanalyse-Tool, von dem sie hofft, dass es Ärzten bei der Diagnose der Erkrankung helfen kann.

Einige Mediziner fragen sich allerdings skeptisch, wie viele nützliche Informationen solche Systeme wirklich liefern werden. »Manches davon ist ein wenig übertrieben«, sagt Rhea Paul, die als Spezialistin für Kommunikationsstörungen an der Sacred Heart University in den USA arbeitet. Schließlich, meint Paul, zeigten Kinder mit neurologischen Entwicklungsstörungen ja oft viele leicht beobachtbare Verhaltenssymptome.

Auch sei noch gar nicht klar, ob die Algorithmen wirklich spezifische Marker für, zum Beispiel, eine Autismus-Spektrum-Störung identifizieren, oder ob sie eher nur allgemeine Anzeichen einer atypischen Hirnentwicklung abbilden, womöglich sogar nur vorübergehende sprachliche Abweichungen. »Entwicklung ist ein mäandernder Weg, und nicht jedes Kind, das anfangs aussieht, als hätte es Autismus, wächst zu einem Erwachsenen mit Autismus heran«, sagt Paul. Und selbst wenn Wissenschaftler einen sehr zuverlässigen, spezifischen Stimm-Biomarker identifizieren würden: Der, fügt sie hinzu, sollte höchstens dazu dienen, jene Kinder zu erkennen, bei denen eine anschließende gründlichere Untersuchung besonders hilfreich erscheint. Es sollte aber nicht als Ziel für sich gesehen werden, Kinder mit einem Etikett zu versehen – vor allem nicht derart früh auf ihrem Lebensweg, meint Paul.

Viele Forschergruppen nutzen die Technik auch bei psychischen Erkrankungen: Weltweit entwickeln sie Systeme, die das langsame, oft unterbrochene und monotone Sprechen auswerten, das bei einer Neigung zu Depressionen charakteristisch ist. Andere Teams haben stimmliche Biomarker identifiziert, die mit Psychosen, Suizidalität und bipolaren Störungen in Verbindung gebracht werden.

»Die Stimme ist enorm vielfältig dabei, unsere Emotionssignale zu vermitteln«, fasst der Psychiater Charles Marmar von der New York University zusammen: »Tempo, Rhythmus, Lautstärke, Tonhöhe, die Prosodie: Die Merkmale geben Aufschluss darüber, ob ein Patient niedergeschlagen und entmutigt ist, ob er aufgeregt und ängstlich, dysphorisch und manisch ist.«

Niedergedrückte TöneLaden...
Niedergedrückte Töne

In seiner eigenen Forschungsarbeit hat Marmar mit Maschinenlernen 18 Stimmmerkmale identifiziert, die mit der Posttraumatischen Belastungsstörung (PTBS) einhergehen; als Testpersonen dienten dabei 129 männliche ehemalige Militärangehörige. Die Analyse der Merkmale – vor allem Indikatoren einer langsamen, gedämpften und monotonen Sprechlage – erlaubten eine fast 90-prozentige Treffergenauigkeit bei der PTBS-Diagnose der Versuchsteilnehmer.

Psychische Gesundheit: Dafür gibt es eine App

Marmar und seine Kollegen werden nun auch Frauen und Zivilisten in Folgestudien einschließen, um die Ergebnisse möglichst zu verallgemeinern. Gelingt dies, hofft Marmar, so könnte die Technik zum nützlichen Schnelltest werden: Sie soll helfen, jene Menschen rascher zu erkennen, die womöglich einer gründlicheren psychiatrischen Beurteilung bedürfen. Als erste Anwendung im echten Leben stellt er sich ein PTBS-Hochdurchsatz-Screening vor: »Man kann 4000 Stimm-Screens in wenigen Stunden durchführen.«

Einige alltagsrelevante Anwendungen sind schon aus den Startblöcken. So untersucht das US-Veteranenministerium, ob eine Monitoring-App psychischer Gesundheit dabei helfen kann, Militärpersonal mit psychischen Problemen zu erkennen. Die Smartphone-App – entwickelt vom Kommunikations- und Analyse-Unternehmen Cogito aus Boston – sammelt Metadaten von User-Gewohnheiten, also etwa, wie häufig sie andere Menschen anrufen oder SMS schreiben, und analysiert Sprachnotizen auf den Mobiltelefonen.

Vielleicht gibt es sogar Stimmen-Biomarker für psychische oder körperliche Umstände, die auf den ersten Blick mit der Stimme gar nichts zu tun haben. So haben Forscher 2018 Sprachproben von 101 Personen analysiert, denen eine planmäßige Angiografie der Herzkranzgefäße bevorstand. Dabei wurde dann deutlich, dass bestimmte Stimmfrequenzmuster mit schweren Erkrankungen der Koronararterien einhergehen.

Der Hintergrund dieser Beobachtung ist unklar. »Mit dem zu Grunde liegenden Mechanismus tun wir uns schwer, weil er nicht offensichtlich ist«, erklärt der Kardiologe und Studienleiter Amir Lerman. Zwar reduziere eine koronare Herzkrankheit den Blutfluss und könnte so theoretisch die Stimme verändern, sagt Lerman – es sei aber auch möglich, dass nicht die Krankheit selbst die Stimmveränderungen verursacht, sondern andere damit verbundene Risikofaktoren, etwa Stress oder Depressionen.

Krankheitsmarker oder Störfaktor – was werten die Algorithmen wirklich aus?

Die Forschungsarbeit zeigt, welche Chancen die Technik hat und wo ihre Grenzen liegen. Schön und gut, wenn ein Computer bestimmte Stimmmuster selektieren kann – wirklich schwer wird es, anschließend zu erkennen, was die Muster nahelegen und welche medizinischen Implikationen sie möglicherweise haben. Sind sie eine direkte, typische Folge der betreffenden Krankheit? Oder sind es schlicht Marker, die andere Unterschiede zwischen Testgruppen deutlich machen, etwa das Alter oder Geschlecht, die Körpergröße, den Bildungsstand oder einfach Müdigkeit? Alle diese Einzelfaktoren können Störgrößen bei der Auswertung sein. »Wir möchten davon wegkommen, einfach einen Algorithmus auf Daten zu schmeißen. Stattdessen wollen wir unter die Oberfläche der Datensätze vordringen und zuerst ein Modell der Krankheit entwerfen – um das dann mit Hilfe maschinellen Lernens zu testen«, sagt Ghomi.

Bisher sind potenzielle Biomarker in den meisten Studien nur in kleinen, abgeschlossenen Patientengruppen identifiziert worden. »Da stellt sich noch immer die Frage der Reproduzierbarkeit«, sagt Lerman. »Ist meine Stimme heute, morgen und übermorgen die gleiche?« Um sicherzustellen, dass die Ergebnisse verallgemeinert werden können – und um den möglichen, weil typischen Verzerrungseffekt medizinischer Algorithmen zu verhindern –, müssen Forscher ihre Klassifikationssysteme mit größeren, vielfältigeren Stichproben und in einer Vielzahl von Sprachen testen. »Wir wollen ein Sprachmodell nicht nur mit 300 Patienten validieren«, sagt Jim Schwoebel, Vizepräsident der Datenforschung bei Sonde Health, einem in Boston ansässigen Unternehmen für Sprachanalyse. »Vermutlich brauchen wir 10 000 oder mehr.«

Das Unternehmen betreibt SurveyLex, eine Onlineplattform, mit der Forschern recht einfach Sprachumfragen erstellen und verbreiten können. Zudem sammelt die Firma über das Voiceome-Projekt Stimmen und Gesundheitsinformationen von bis zu 100 000 Personen, die Sprachproben in unterschiedlichstem Kontext und Akzent von verschiedenen Örtlichkeiten liefern. Denn: »Vielleicht sind Sie in New York deprimiert – und klingen in Houston, Texas, anders deprimiert«, sagt Schwoebel.

Für viele der Anwendungen, die den Forschern vorschweben, müssen die Sprachanalysesysteme nicht nur kranke Menschen von Gesunden in einer Kontrollgruppe auseinanderhalten: Nötig wird auch sein, eine Vielzahl von Krankheiten und unterschiedlichster Gemütslagen zu unterscheiden. Zudem muss das außerhalb von Laborbedingungen in wahllosen Alltagssituationen klappen und eine große Zahl unterschiedlicher Endgeräte der Teilnehmer abdecken. »Wir sprechen von Smartphones mit begrenzter Sensorreichweite, die von den Menschen überall in unvorhersehbarer Umgebung genutzt werden«, warnt Julien Epps, der sich an der Universität von New South Wales in Australien mit Sprachsignalverarbeitung beschäftigt.

Epps und Kollegen – darunter ein Forscher von Sonde Health – haben bereits Stimmproben analysiert, die mit hochwertigen Mikrofonen in einem Labor aufgenommen worden waren – und hier konnten sie eine Depression mit einer Genauigkeit von etwa 94 Prozent erkennen. Als sie aber Sprachproben untersuchten, die Menschen in ihrer Alltagsumgebung mit ihren Smartphones aufgenommen hatten, sank die Vorhersagegenauigkeit auf weniger als 75 Prozent ab, wie die Forscher 2019 in einer Studie zusammenfassen.

Und: Nur weil die Technologie »nicht invasiv« ist, muss sie nicht auch ohne Risiken sein. Ernsthafte Bedenken ruft die Datenschutzproblematik auf. So besteht etwa die Möglichkeit, dass Personen anhand anonymer Sprachproben identifiziert werden, dass die Systeme versehentlich private Gespräche aufzeichnen oder dass sensible medizinische Informationen verkauft, weitergegeben, gehackt und missbraucht werden könnten.

Eine gründliche Regulierung der Technik tut not, um der Gefahr zu begegnen, dass Versicherer oder Arbeitgeber die Sprachanalysesysteme ohne ausdrückliche Zustimmung nutzen oder damit persönliche Gesundheitsinformationen einholen. Das könnte einer möglichen Diskriminierung von Kunden oder Mitarbeitern Tür und Tor öffnen.

Und schließlich bleibt das stete Risiko von falsch positiven Ergebnissen und Überdiagnosen. »Wir müssen realistisch bleiben und uns klar machen, dass vieles derzeit noch bloße Forschung ist«, sagt Rudzicz. Schon jetzt, ergänzt er, sollten wir uns aber überlegen, was beim praktischen Einsatz einmal auf uns zukommen wird.

Lesermeinung

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnervideos