Direkt zum Inhalt

Lobes Digitalfabrik: Wie simuliert man einen Autofahrer?

Solange autonome Fahrzeuge nicht die einzigen Verkehrsteilnehmer sind, müssen sie mit denen aus Fleisch und Blut kommunizieren. Aber wie hält ein Robotertaxi Blickkontakt?
Mann überquert ZebrastreifenLaden...

Im Straßenverkehr ist Kommunikation allgegenwärtig: Man winkt, man blinkt, man hupt mutmaßliche Verkehrssünder vorwurfsvoll an. Mal warnt die Lichthupe den Gegenverkehr vor Blitzern, mal soll sie den Vordermann zum Schnellerfahren drängeln. Je weiter man ins Ausland fährt, desto ruppiger scheinen die Verkehrssitten zu werden. In Italien brüllt man sich Verkehrsregeln aus dem offenen Fenster in die Ohren, in den USA werden Vorfahrtstreitigkeiten zuweilen unter Androhung von Waffengewalt geregelt.

Wenn jedoch künftig autonome Fahrzeuge auf den Straßen rollen werden, könnten diese sprachlichen Kodes obsolet sein. Dann nämlich kommunizieren Roboterfahrzeuge untereinander – mit ihren ganz eigenen (Programm-)Kodes. Das Problem ist nur, dass das voll automatisierte Fahren nicht von heute auf morgen kommen wird, sondern in Etappen. Und solange noch Autos von Menschenhand gesteuert auf den Straßen unterwegs sein werden, müssen Roboter mit Menschen kommunizieren.

Damit in der Mensch-Maschine-Interaktion kein babylonisches Sprachgewirr entsteht, hat der Fahrdienstleister Uber ein Patent auf ein Signalsystem angemeldet, das mit Blitzlicht und Geräuschen operiert. Wie aus dem Patentantrag hervorgeht, will Uber mit einer Mischung aus auditiven und visuellen Signalen mit Fußgängern kommunizieren. Eine unterhalb der Kühlerhaube installierte Anzeige soll dem Passanten mit Pfeilrichtungen signalisieren: »Bitte überqueren Sie die Straße.« An der Windschutzscheibe soll zudem ein virtueller Fahrer als Avatar aufpoppen, der dem kreuzenden Fußgänger die Richtung weist. Die Idee: Man simuliert den menschlichen Fahrer. Die Herausforderung besteht darin, dass die Maschine dem Menschen Dinge signalisieren muss, die dieser aus seiner Erfahrung im Straßenverkehr für gewöhnlich antizipiert. Ein Blickkontakt genügt, um festzustellen, ob der Gegenüber losfährt oder nicht. Der Mensch weiß jedoch nicht, wie eine Maschine reagiert – und umgekehrt. Deshalb muss das Roboterfahrzeug akustische oder auditive Warnsignale aussenden, die dem Passanten zu verstehen geben: Ich kann jetzt die Straße überqueren – oder muss warten.

Kann ein Roboterfahrzeug Gesten simulieren?

Nach dem tödlichen Unfall in Kalifornien im März 2018, bei dem eine 49-jährige Frau von einem Roboterauto erfasst und getötet wurde, ist Uber in die Schlagzeilen geraten. Das Unternehmen arbeitet mit Hochdruck an der Optimierung seiner Sensoren, da auch andere Tech-Konzerne in den Markt drängen. Google, das mit seiner Tochter Waymo ein Konkurrenzmodell entwickelt, hat ein eigenes Warnsystem patentiert, das unter anderem auf Texttafeln wie »Walk« oder »Don't Walk« sowie akustische Signale setzt. Das Start-up Drive.ai tüftelt indes an LED-Tafeln, die ähnlich wie eine Taxileuchte auf dem Dach der Fahrzeuge angebracht werden und mit kurzen Textbotschaften und sogar Emojis Informationen an die Fußgänger übermitteln. Zum Beispiel: »Safe to cross«, jetzt kann man die Straße sicher überqueren.

Das Versprechen autonomen Fahrens ist, dass es den Straßenverkehr sicherer macht. Jedes Jahr kommen nach Angaben der Weltgesundheitsorganisation WHO 1,24 Millionen Menschen bei Verkehrsunfällen ums Leben. Autonome Fahrzeuge lassen sich relativ genau berechnen. Der Autopilot fährt stur nach Programmierbefehl, er wird nicht müde und neigt auch nicht zu aggressivem Fahrverhalten. Robotertaxis etwa werden mit KI-Computern angetrieben, Hochleistungsprozessoren, die bis zu 320 Billionen Rechenoperationen pro Sekunde durchführen. Die große Unbekannte in den Gleichungen ist jedoch das menschliche Verhalten, das kaum berechenbar ist: Springt ein Kind unvermittelt auf die Straße oder unternimmt ein Autofahrer ein riskantes Überholmanöver, bleibt selbst für die hochleistungsfähigen Fahrcomputer nicht mehr viel Zeit auszuweichen. Daraus resultieren die viel zitierten ethischen Dilemmata.

Die Frage ist, ob ein Roboterfahrzeug intuitive Signale wie Gesten simulieren kann und diese Kodes beim Empfänger, dem Fußgänger oder Autofahrer aus Fleisch und Blut, auch ankommen. Nimmt man das Warnsystem überhaupt wahr, wenn man ständig auf sein Smartphone schaut? Schon heute leidet die digitale Gesellschaft an Reizüberflutung durch Handys, ganz zu schweigen von in Autos integrierten Infotainmentsystemen. Das Tech-Blog »The Verge« gab zu bedenken, dass ein Roboterauto wie der Las Vegas Strip leuchten müsste, um die Abwesenheit eines Fahrers zu kompensieren. Das wäre dann die totale Reizüberflutung. Andererseits müssen auch Maschinen ihre Umgebung lesen können. 2016 rauschte ein Tesla mit aktivierter Autopilotfunktion auf einem Highway in Florida in einen kreuzenden Sattelschlepper, weil der Autopilot die weiße Flanke des Sattelzugs vom hellen Himmel nicht unterscheiden konnte. Computer sind gut darin, regelmäßig wiederkehrende Muster zu erkennen. Unvorhergesehene Ereignisse aber stellen sie vor Probleme.

Lesermeinung

1 Beitrag anzeigen

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnervideos