Direkt zum Inhalt

Künstliche Wesen: Wann ersetzt der Roboter den Menschen?

Oussama Khatib hat einen Roboter entwickelt, der in für Menschen gefährliches Gelände vordringen kann. Wer ihn steuert, schlüpft quasi in dessen Körper: Er sieht die Umgebung durch dessen Augen und steuert dessen Hände mit haptischem Feedback. Die Kooperation zwischen Mensch und Roboter ist für den Informatikprofessor aus Stanford die Zukunft der Automatisierung.
Ocean One im Einsatz

Spektrum.de: Herr Khatib, andere Roboterforscher kämpfen damit, ihre Roboter unfallfrei auf dem Boden laufen zu lassen. Sie haben einen Tauchroboter mit menschlicher Figur entwickelt. Ist die Fortbewegung im Wasser nicht noch komplizierter mit den zusätzlichen Freiheitsgraden und Strömungen?

Oussama Khatib: Im freien Raum zu sein und zu fliegen oder zu schwimmen, ist eigentlich eine schöne Sache für einen Roboter. Er erlebt ja keine Begrenzungen. Klar, das Schweben im Wasser bringt weitere Bewegungsrichtungen dazu und die Strömung, aber das lässt sich gut lösen. Das Problem entsteht dann, wenn er Hindernissen ausweichen muss. Und genau dieser Herausforderung haben wir uns gestellt.

Roboterforscher Oussama Khatib

Wieso ist es so schwierig, Hindernissen auszuweichen? Mit den modernen Sensoren und künstlicher Intelligenz müsste das doch möglich sein?

Ich glaube nicht, dass Roboter in naher Zukunft ganz allein, nur mit künstlicher Intelligenz, in unsicherem Gelände unterwegs sein können und noch dazu komplexe Aufgaben lösen. Ich bin davon überzeugt: Der Mensch braucht Roboter, aber Roboter brauchen auch Menschen. Nur gemeinsam können wir die großen Herausforderungen meistern.

Ihr Roboter Ocean One hat öffentlichkeitswirksam das Schiffswrack La Lune erkundet, das 1664 vor der Küste Frankreichs gesunken ist. Ihr Roboter tauchte dabei in einer Tiefe, in die menschliche Taucher nur mit einer Art Raumanzug vordringen können. Wie haben Sie Kollisionen mit Teilen des Wracks verhindert?

Ich habe den Roboter von der Oberfläche aus gesteuert, indem ich seine Perspektive eingenommen habe: Auf meinem Monitor habe ich die Umgebung durch seine Augen gesehen und seine Hände gesteuert. Er hat eine an den menschlichen Körper angelehnte Form, unter anderem zwei Hände, die ich mittels einer haptischen Steuerung bewegen konnte als wären es meine eigenen. So konnte ich fühlen, was er fühlt.

© DRASSM/Stanford University/Gedeon Programmes
Androider Schwimmroboter: Ocean One

Haben Sie dafür Handschuhe getragen, oder wie wurde das Gefühl an Sie übertragen?

Nein, durch Handschuhe fühlt sich das nicht echt an. Wir wollten vor allem auch wissen, welchen Widerstand der Roboter fühlt, wie schwer beispielsweise ein Gegenstand ist und ob er weich oder hart ist. Das überträgt unsere haptische Steuerung mittels einer Schnittstelle an unsere Hände. Diese ist quasi ein weiterer Roboter, der uns unter anderem die auftretenden Kräfte fühlen lässt.

Diese Steuerung sieht aus wie ein überdimensioniertes, mehrdimensionales Joystick. Wie intuitiv ist es, damit zu arbeiten?

Sehr intuitiv. Ich kann es benutzen wie meine eigenen Hände. Unser Roboter hat beispielsweise Gegenstände aus dem Schiffswrack mitgebracht: Ich habe an dieser Schnittstelle gefühlt, wie schwer diese sind und entschieden, wie viel Kraft der Roboter einsetzen soll, um sie zu greifen – indem ich die gleiche Kraft an der Steuerung einsetzte. Bei manchen Gegenständen ist das ja enorm wichtig, nicht zu kräftig zuzupacken.

»Ich konnte fühlen, was er fühlt«
Oussama Khatib

Sie beziehungsweise Ihr Roboter haben unter anderem eine alte Vase aus dem Schiffswrack geholt.

Ja, sie ist von 1664, und ich war der Erste, der sie nach 350 Jahren berührt hat. Dafür musste der Roboter sanft zugreifen können. Die Vase hat die Form einer Grapefruit, das habe ich auf den Aufnahmen der Kamera gesehen, aber auch an unserer Schnittstelle gespürt. Ich habe sie vorsichtig gegriffen, gerade mit der nötigen Kraft – und das wurde an Ocean One übertragen. Die Haptik ist beeindruckend, daran arbeite ich seit 20 Jahren. Den Roboter auf diese Art zu steuern ist, als bewohne ich seinen Körper, als wäre ich selbst dort gewesen. Nur dass ich der Gefahr nicht ausgesetzt bin, in 1000 Meter Tiefe zu tauchen.

Werden die Roboter der Zukunft unsere Avatare, die wir wie in der Virtual Reality an Stelle unserer selbst durch gefährliches Gelände steuern?

Unser Projekt ist schon jetzt virtuelle Realität. Für mich hat es sich fast so angefühlt, als sei ich selbst dort. Aber die Schnittstelle ist am Ende egal. Ich habe eine solche Brille auch aufgehabt, brauchte aber mehr Informationen auf anderen Bildschirmen. Vielleicht ist es eher Augmented Reality, erweiterte Realität: Der Mensch wird durch Roboter erweitert, sie werden unsere Stellvertreter in Umgebungen, die wir nicht betreten können.

Letzte Handgriffe | Über Jahre hat Khatib am Prototyp von Ocean One getüftelt. Mit Hilfe der Tauchmaschine in Menschengestalt erkundete er das Wrack der »La Lune«, dem Flaggschiff von Ludwig XIV.

Ihr Roboter hat sich am Schiffswrack zwischen zwei Kanonen verkeilt: Sein Ellbogen blieb hängen. Ist die menschliche Figur vielleicht doch nicht so optimal?

Könnte man auf den ersten Blick meinen. Das war in der Tat ein aufregender Augenblick; es wurde schon dunkel, unser Kapitän sagte: »Wir müssen jetzt zurückfahren, es wird gefährlich.« Aber ich sagte: »Nie und nimmer lasse ich meinen Ocean One da unten allein zurück.« Wir haben versucht, ihn rückwärts wieder aus der Engstelle zu navigieren, aber der Ellbogen war richtig verkeilt, es bewegte sich gar nichts. Schließlich fiel mir ein, dass er ja eine menschliche Figur hat und dass wir menschliche Bewegungen nutzen können. Ich ließ ihn eine Art Liegestütze machen, der Ellbogen streckte sich, und der Roboter war frei. Er sprang förmlich aus der Engstelle heraus.

Wieso ist Ihnen dieser Trick nicht gleich eingefallen? Sie haben ihm doch bewusst die menschliche Figur gegeben?

Tja, man ist es eben nicht gewohnt mit Robotern, man denkt eher an Navigation. Und da schien es naheliegend, rückwärts wieder auszuparken. Aber das zeigt einmal mehr den Vorteil der menschlichen Form.

Kann Ihr Roboter sich nicht selbst wieder befreien angesichts all der Sensoren? Oder lässt er sich ausschließlich von Menschen steuern?

Er kann sich natürlich auch selbst bewegen. Ich könnte ihm sagen: »Tauche hinunter zu dem Schiffswrack und melde dich, wenn du dort bist!« Aber immer wieder können Situationen entstehen, in denen er auf menschliche Erfahrung oder Intuition angewiesen ist. Es ist diese Mischung, die ich für die Zukunft halte: Roboter, die sich flexibel auf unbekannte Umgebungen einstellen können und mit Menschen zusammenarbeiten, deren Wissen unverzichtbar ist.

Wie lernen Ihre Roboter? Schauen Sie sich menschliche Bewegungsmuster ab?

Nein, wir analysieren sehr genau, wie der Mensch handelt und wieso er etwas tut. Wie stellen Sie beispielsweise ein Glas auf den Tisch? Wie fühlen Sie, wenn es Kontakt hat? Wie sind die Bewegungsmuster? Wir beobachten das sehr genau, dokumentieren das und erstellen dadurch auch ein Modell des Menschen. Deshalb ist unsere Arbeit jetzt auch Teil der Biomechanik, der wir neue Erkenntnisse liefern. Darauf beruht dann unsere Programmierung für Roboter. Sie sind flexibel und wissen, dass sie ihr Ziel auf mehreren Wegen erreichen können. Anders als die klassischen Industrieroboter, deren Bewegungen eins zu eins programmiert sind, können sie sich so auch in unbekanntem Gelände bewegen.

Wie geht das, wenn selbst Sie im Vorfeld noch nicht so genau wissen, wie das Gelände aussieht?

Unsere Idee ist, Roboter mit Fähigkeiten auszustatten. So dass wir nicht sagen müssen: »Jetzt bewege deine Arme zehn Grad nach links, und dann drehe die Hände um 20 Grad!«, sondern: »Stell das Glas auf den Tisch!« Dann können sie auch flexibel auf unbekanntes Gelände reagieren.

Sie haben bereits Ende der 1970er Jahre die so genannte »artificial potential field methode« erfunden, eine Art simulierte Kraft, die Roboter von Gegenständen abstößt. Es heißt, sie habe das Problem der Navigation gelöst. Inwiefern?

Dieses künstliche Potenzial ist eigentlich eine einfache Methode, um das Konzept zu generalisieren. Wir programmieren das Ziel, zu dem der Roboter soll, als einen Magneten: Der zieht ihn an. Hindernisse auf dem Weg bekommen eine künstliche Abstoßungskraft; sie sind sozusagen anderspolige Magnete. Wenn der Roboter ihnen zu nahe kommt, wird ihre abstoßende Kraft immer stärker, so dass er nicht kollidieren kann. Gleichzeitig zieht ihn das Ziel an, so dass er die optimale Route findet.

Wie kann er mit Menschen interagieren?

Wer heutige Industrieroboter kennt, kann sich kaum vorstellen, dass die Roboter der Zukunft kooperativ mit Menschen zusammenarbeiten können, ohne dass das gefährlich ist. Unser Ocean One arbeitet mit Menschen zusammen. Sie können ihn unter anderem mittels Gesten steuern, die er durch seine Kamera und mittels Bildverarbeitung erkennt.

Jenseits von Ausflügen in gefährliches Gelände: Was können Roboter besser als Menschen?

Der menschliche Körper ist sehr schlecht in Sachen Feedback: Wir haben eine zu langsame Reaktion. Wenn unsere Sinne etwas registrieren, braucht es viel zu lange, bis wir darauf auch reagieren. Deshalb verbrennen wir uns beispielsweise die Finger auf einer heißen Herdplatte – wir handeln zu langsam. Roboter fühlen und reagieren in der gleichen Zeit.

Wie ist Ihre Vision für die Zukunft? Werden die Roboter die Menschen irgendwann komplett ersetzen?

Nein, das halte ich für unrealistisch. Wir können ein menschliches Wesen mit all seinen Fähigkeiten nicht duplizieren. Wir Menschen haben eine beeindruckende denkende Maschine, unser Gehirn. Darauf werden wir nie verzichten können. Wir verbinden dieses Wissen, die Erfahrung und die Intuition mit den Fähigkeiten von Robotern. Dann gibt es kein Limit.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.