Direkt zum Inhalt

Robotik: Intelligenz braucht einen Körper

Über die Erfolge von KI und Deep Learning dürfen Forscher nicht vergessen, dass echte Intelligenz mehr benötigt als nur einen Kopf: Sie braucht einen eigenen Zugang zur Welt.
Myon sitzt auf einer Wiese

Noch starrt das markante Zyklopenauge ins Leere: Myon, der Roboter, ruht deaktiviert an seinem Platz im Labor. Dann drückt Peter Hirschfeld einen Knopf und startet den Kopf von Myon, die Hauptrecheneinheit. Dann den Körper, er muss noch extra in Betrieb genommen werden. Allmählich erwacht der aus weißem Plastik und Metall gefertigte Roboter zum Leben. Hirschfeld zieht die sitzende Gestalt zu sich hoch. Die Rädchen und Drähte in den Gelenken surren, die 1,50 Meter große Maschine erhebt sich selbstständig. »Der Körper erkennt die Pose, die ich ihm zu geben versuche, und sendet die Bewegung an den Kopf. Und der Kopf signalisiert dann dem Körper, dass er aufstehen soll.« Als das vollbracht ist, hat der Kopf schon nichts mehr zu tun. Myon ist für einen Roboter vergleichsweise wenig verkopft. Er ist ein sehr körperlicher Zeitgenosse.

Das merkt man spätestens, wenn Hirschfeld, wissenschaftlicher Mitarbeiter am Forschungslabor Neurorobotik der Beuth Hochschule für Technik Berlin, versucht, ihn zu kippen. Myon stemmt sich dagegen, ringt fast mit Hirschfeld, um weiterhin aufrecht zu stehen. »Der Körper misst die ganze Zeit die Erdanziehungskraft und richtet sich immer so aus, dass er am wenigsten Energie verbraucht.« Dieses Ziel erreicht Myon im Aufrechtstehen, Sitzen oder Liegen. »Das ganze Reflexsystem, das neu Ausrichten und Ausbalancieren, macht der Körper alleine«, sagt Hirschfeld. »Wir haben ja auch im menschlichen Körper das Rückenmark, das Reflexe steuert.« Neuronale Netze beziehungsweise die entsprechenden Programmkodes sind zu diesem Zweck über Myons ganzen Körper verteilt. In den einzelnen Körperteilen stecken Prozessoren. Hirschfeld deutet beispielhaft auf eine grüne Platine im Unterarm. Beim Aufstehen und Setzen allerdings überwacht Myons Kopf die Bewegung des Körpers und moduliert die Reflexe, wenn nötig.

Ein Körper scheint selbstverständlich bei einem Roboter. Trotzdem setzte man in der Robotik lange mehr auf Köpfchen als auf Körperlichkeit. Man denke an den berühmten Roboter Shakey aus den 1970er Jahren. Shakeys Umgang mit der Welt beruhte auf endlosen internen Berechnungen. Er lebte in statischen und übersichtlichen Räumen und brauchte Stunden, um einen kurzen Weg zurückzulegen und dabei etwa einen farbigen Klotz von einem Raum in einen anderen zu schieben. Bis mindestens in die 1980er Jahre hinein dauerte die Kopflastigkeit der KI. Dann zeigte Rodney Brooks, damals Informatiker am MIT, dass sich Roboter leichter in ihrer Umwelt bewegen, wenn die Reize, die ihnen ihre Sensoren liefern, direkt in sinnvolle Bewegungen münden. Seine Roboter besaßen eine verkörperte Intelligenz, bei der Sensoren und Motoren ohne Umwege miteinander verknüpft waren. Der Embodiment-Ansatz, die verkörperte Robotik, war geboren.

Myon soll wie Kind selbstständig lernen

Auch Myon bewegt sich mit seinem Körper in seiner Umwelt und soll über ein Feedback, das er über Sensoren von ihr erhält, letztlich wie ein Kind selbstständig lernen. Sein Vater, Manfred Hild, Professor für Digitale Systeme an der Beuth Hochschule, betritt gerade das Forschungslabor. Er ist noch ganz euphorisch von der Vorlesung, die er gerade gehalten hat. Der jungenhafte Endvierziger erklärt passend zum Thema mit vollem Körpereinsatz. »Die Welt selbst liefert wichtige Lösungsimpulse, gerade wenn es darum geht, dass sich ein Körper in der Welt zurechtfindet«, sagt Hild. »Neuere Ansätze zeigen, dass es oft zu besseren Lösungen in der Robotik führt, wenn der Körper weniger durch das Gehirn beziehungsweise die Rechenleistung kontrolliert wird, sondern ›losgelassen‹ wird, so dass sich eine Interaktion zwischen Körper und Umwelt einstellt.«

Roboter Myon sitzt an einer Bushaltestelle
Nicht nur äußerlich erinnert Myon an ein Kind | Der Roboter soll wie ein junger Mensch durch Interaktion mit der Umwelt lernen.

Das sieht auch die Informatikerin Verena Hafner so, die an der HU Berlin Roboter mit verkörperter Intelligenz entwickelt. Interaktion mit der Umwelt helfe, den Rechenaufwand zu reduzieren. »Dabei orientiert man sich beispielsweise daran, wie Menschen ein Glas greifen«, so Hafner, »durch die Form des Glases, die Form der menschlichen Hand und die sensomotorische Interaktion zwischen beiden müssen wir nicht millimetergenau berechnen, wo unsere Hand das Glas anfasst.« Die Hand greift, die Finger schließen sich um das Glas und passen sich automatisch an dessen Form an. Die weiche Hand fungiert dabei als Sensor. Als Feedback dienen etwa Druck und Reibung. »Das kann man mittlerweile ziemlich gut in Modellen abbilden und in künstliche Systeme implementieren«, sagt Hafner und verweist auf die Forschung ihres Kollegen Oliver Brock von der TU Berlin.

Wie nützlich körperlich vermittelte Erfahrungen sein können, sieht man an künstlicher Intelligenz, die ohne solche Erlebnisse auskommen muss: den derzeit gehypten künstlichen neuronalen Netzen mit ihrem Deep Learning. Amazon oder Google lassen künstliche neuronale Netze etwa Bilder analysieren. Doch dabei gibt es immer wieder Probleme. Ist beispielsweise auf einem Bild eine Kuh verdeckt, wird sie meist nicht erkannt. »Bei den programmierten neuronalen Netzen muss man nun viel Rechenleistung hineinstecken, um solche verdeckten Objekt dennoch zu erkennen«, sagt Manfred Hild im Labor in Berlin. »Myon hingegen reagiert direkt auf Umweltreize, die wichtige Rohdaten für ihn sind.« Und dabei hilft ihm sein Körper. Hild dreht den Roboterkopf nach links und rechts: »Kann ich wie Myon meinen Kopf hin und her bewegen, kann ich leicht erkennen, dass die Kuh verdeckt ist, und mit viel weniger kognitiver Erkenntnisleistung auskommen.«

Aus dem Umgang mit Umwelt sollen geistige Prozesse erwachsen

Vorteile einer verkörperten KI sieht Hild aber nicht nur in Sachen Motorik und Sensorik. »Es macht auch keinen Sinn, wie manche glauben, einer KI Weltwissen zu vermitteln, indem ich es an das Internet anschließe.« Hier komme man von einem beliebigen Alltagsbegriff – etwa dem Wort »Tasse« – zum nächsten, vom Hundertsten zum Tausendsten. Ein Roboter, der hingegen körperlich mit der Umwelt interagiere, bekomme ganz automatisch das relevante Wissen vermittelt. Myon kann über verschiedene Sinneskanäle – seine Kamera, Mikrofone und so weiter – Erfahrungen mit Gegenständen wie einem Glas machen. »Wenn es ihm herunterfällt, gibt es ein lautes Geräusch, es zerbricht, er wird getadelt oder auch nicht.« Solche persönlichen Erfahrungen werden auf einer SD-Karte in seinem Kopf gespeichert. Myon weiß dann das nächste Mal, dass er bei einem Glas aufpassen muss. »Algorithmen im Gedächtnissystem helfen dabei ganz assoziativ die für die jeweilige Situation erforderlichen Lernerfahrungen auszuwählen."

Im Idealfall hilft die Interaktion mit der Umwelt, den Rechenaufwand zu reduzieren

Aus dem physischen Umgang mit der Umwelt können zaghaft erste geistige Prozesse erwachsen, wie die Entwicklung von Kindern zeigt. Wenn ein Kind nach einer zu weit entfernten Tasse greift, wird es scheitern. Ist aber die Mutter in der Nähe, wird sie dem Kleinen die Tasse näher heranschieben. Dadurch lernt das Kind unbewusst: Wenn ich meinen Arm nach einer Sache ausstrecke, sie aber nicht greife, kann ich unter Umständen die Unterstützung der Eltern bekommen. »Daraus entwickeln sich in natürlicher Weise Zeigegesten«, so Manfred Hild. Er ist überzeugt, dass sich dieser Lernprozess auch in Robotern anstoßen lässt.

Dass solches Lernen in Robotern tatsächlich prinzipiell möglich ist, legt unter anderem eine Studie von Forschern um den Informatiker John Lones von der University of Hertfordshire aus dem Jahr 2016 nahe. Ihre Roboter konnten über verschiedene Sensoren Gegenstände im Raum und eine Energiequelle in ihrer Nähe aufspüren, die sie zum »Auftanken« benötigten. Welche kognitiven Fertigkeiten sie entwickelten, hing dabei davon ab, ob die Roboter zuvor in einer abwechslungsreichen oder monotonen Umgebung »aufgewachsen« waren. Einer von ihnen hatte im Labor bereits Versuche durchlaufen, in denen er um Blechbüchsen herumfahren musste und sie leicht anstieß. Er fand die Energiequelle auch dann, wenn die Forscher sie hinter diesen Blechbüchsen versteckten. Bis zu einem gewissen Grad schien der künstliche Nachwuchs eine typisch menschliche kognitive Fertigkeit erworben zu haben: ein Verständnis für Objektpermanenz, also dafür, dass ein Gegenstand auch dann noch existiert, wenn er nicht mehr sichtbar ist. Ein baugleicher Roboter hingegen, der seine »Kindheit« in einer kleinen Box mit wenig Spielraum verbracht hatte, fand die verborgene Energiequelle hinter den Blechbüchsen nicht.

Sprache lernen durch Zuhören

Myon in Berlin lernt derzeit, die Bausteine der Sprache wie Sprachmelodie, Tonhöhe oder Lautstärke zu analysieren, um etwa festzustellen, ob er gerade etwas gefragt wird. Auch hier lohnt der Vergleich mit »herkömmlicher« KI: »Es gibt heutzutage viele Assistenzsysteme mit Spracherkennung wie Siri oder Alexa, die in den letzten Jahren große Fortschritte erzielt haben«, erklärt Manfred Hild. Aber letztlich würden hierbei große Datenmengen mit Big-Data-Methoden ausgewertet, was immens rechenaufwändig ist. Myon muss hingegen nicht unbedingt eine natürliche Sprache verstehen. Da ihm Hild und seine Kollegen alles Mögliche beibringen wollen, soll er eher erkennen, ob sie ihm beispielsweise eine Anweisung geben oder eine Frage stellen. »Wenn ich sage: ›Ich meine das Rote da.‹ Und gehe bei ›Rote‹ mit der Stimme hoch und spreche lauter, gebe ich Myon wichtige Hinweise, was ich eigentlich meine.« Betonungen könne Myon schon ganz gut erkennen.

Das demonstriert Simon Untergasser, ein weiterer Mitarbeiter im Neurorobotiklabor. Er hat seinen Computer direkt mit Myons Kopf verbunden. Auf dem Bildschirm sind die verschiedenen Audiofrequenzen zu sehen, eingeteilt in zwölf Bänder. In Rot ist die Grundfrequenz dargestellt. Untergasser macht einen Laut, »Ouhhh«, der tief beginnt und dann höher steigt. Auf dem Bildschirm erscheint ein Bogen. »Auf diesem Weg kann Myon etwa Betonungen in einem Satz herausfinden«, sagt Untergasser. Am Monitor kann man sich aber auch anzeigen lassen, welche Silbengrenzen Myon in Wörtern findet. Rote Striche markieren die Einheiten, in die Myon aufgenommene Sätzen zerlegt.

Kontrahent Deep Learning

Myon scheint also tatsächlich Fortschritte in seinem Kleinkindleben zu machen. Doch was man bei allen Erfolgen der verkörperten Robotik nicht vergessen sollte: Bislang steckt die Embodiment-Forschung tatsächlich noch in den Kinderschuhen. So etwa scheitern bis heute auch »verkörperte« Roboter immer wieder in unübersichtlichen, sich verändernden Umgebungen. Hinzu kommt nach wie vor eine gewisse Skepsis. »Vor allem Forscher aus der kognitivistischen Richtung mit ihrer abstrakten Symbolverarbeitung haben wenig Freude an dem Ansatz«, sagt der bekannte Pionier des Embodiment Rolf Pfeifer.

Im großen Jubel um die Erfolge des Deep Learning scheint es, als schwinde dieser Ansatz sogar völlig aus der Wahrnehmung. Denn beim Deep Learning bleibt fast immer jegliche Verkörperung außen vor. Pfeifer, der nach seiner Emeritierung von der Universität Zürich jetzt an der Shanghai Jiao Tong University tätig ist, schlägt in die gleiche Kerbe wie Manfred Hild: »All diese Algorithmen, die von einer realen Umwelt abgeschnitten sind, muss man mit riesigen Datenmengen, wie Hunderttausenden von Katzenbildern, füttern, damit sie diese sicher erkennen können.« Dennoch hätten sie keinen wirklichen Begriff von Katzen, »wissen« also nicht, dass eine Katze Krallen hat oder dass sie frisst.

Sollen Maschinen also den nächsten großen Schritt Richtung menschlicher Intelligenz machen, müssen sich möglicherweise beide Ansätze stärker vereinen als bisher. Dann könnten Roboter wie Myon vielleicht bald aus ihren Kinderschuhen herauswachsen.

Lesermeinung

3 Beiträge anzeigen

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnervideos