Direkt zum Inhalt

Robotik: Erkenne dich selbst!

Passiert Unvorhergesehenes, sind Roboter schnell mit ihrem Latein am Ende. Doch wenn Maschinen lernen, sich nicht nur von ihrer Umgebung, sondern auch von sich selbst ihr eigenes Bild zu machen, könnten solche Probleme bald der Vergangenheit angehören. In mehr und mehr Entwicklungslabors lernen Roboter daher, ihren Blick aufs Innere zu schärfen.
Roboter mit Selbstmodell
Seien es Sonden im Weltall oder in der Tiefsee, militärische Aufklärungsdrohnen oder die Teilnehmer einer Rallye, bei der sich Fahrzeuge eigenständig einen Weg durch die Wüste bahnen – autonome Roboter, die völlig auf sich allein gestellt ihren Aufgaben nachkommen, erobern immer mehr Einsatzbereiche. Fortschritte in der Steuerungstechnik und ein rasanter Zuwachs an Hard- und Software-Ressourcen machen es möglich.

Was aber, wenn solch ein Roboter unvermittelt in Schwierigkeiten gerät? Wie im Fall der 1997 zerschellten Sonde "Mars Polar Lander", als jahrelange Entwicklungsarbeit und Millionen von Forschungsgeldern buchstäblich in den roten Sand des Nachbarplaneten gesetzt wurden. Weil ihre Sensoren widersprüchliche Daten geliefert hatten, versagten offenbar die Steuerungsroutinen und überließen die hilflose Sonde ihrem Schicksal. Vielleicht wäre die Mission anders ausgegangen, hätten ihr die Entwickler eine zusätzliche Fähigkeit spendiert: die Fähigkeit zur Selbsterkenntnis.

Vielfältige Wirklichkeit

Kein Entwickler kann im Voraus an alles denken. Stoßen fest eingebaute Handlungsstrategien an ihre Grenzen, hätten es die Forscher am liebsten, wenn der Roboter eigenständig neue Lösungen für sein Problem kreiert.
"Schon in beschränkten, künstlichen Welten wie einer Küche oder einer Lagerhalle ist der Raum möglicher Situationen so groß, dass ihn kein Programmierer antizipieren kann"
(Peter Struss)
Doch dazu muss er vor allem eine Menge über sich selbst wissen: Wo befinde ich mich? Wie funktioniere ich? Ist etwas kaputt und wenn ja, was? Erst wenn eine Maschine viele Fragen dieser Art beantworten kann, hat sie eine realistische Chance, einen neuen Plan zu ersinnen. Zusammengenommen bilden alle Antworten ein "Selbstmodell", sozusagen die Theorie des Roboters über sich selbst.

Mit einer solchen Theorie ausgestattet, kann sich ein Roboter selbst simulieren und so die voraussichtlichen Ergebnisse möglicher Aktionen vorhersagen: Stimmt das Ergebnis mit dem vorgegebenen Ziel überein, weiß er, dass er die Aktion ausführen kann. Nicht mehr nötig ist es daher, der Maschine im Voraus haarklein jeden einzelnen Schritt einzuprogrammieren.

Die Raumsonde Deep Space 1 | Die Raumsonde Deep Space 1 auf dem Weg zum Komet 19P/Borrelly – an Bord ein "Selbstmodell" zur eigenständigen Fehlerdiagnose und Rekonfiguration.
Das mag nach Zukunftsmusik klingen, ist in verschiedener Form aber schon weit über das erste Teststadium hinaus. So soll sich bald den prüfenden Blick unter die Motorhaube sparen, wessen Auto ein Selbstmodell hat – jedenfalls, wenn es nach Peter Struss von der Technischen Universität München geht. Zusammen mit Privatfirmen entwickelt er modellbasierte Diagnosesysteme, mit denen das Auto von selbst über Defekte Auskunft geben kann. Auch die Nasa ließ ihre Sonde "Deep Space 1" Fehler im System per Modell entdecken und darauf reagieren. Eine Notwendigkeit, findet Struss: "Schon in beschränkten, künstlichen Welten wie einer Küche oder einer Lagerhalle ist der Raum möglicher Situationen so groß, dass ihn kein Programmierer antizipieren kann."

Vor allem solche Selbstmodelle, die sich automatisch weiterentwickeln können oder sogar vollständig von der Maschine selbst entwickelt werden, lassen die Robotiker aufhorchen. Und nicht nur diese, denn auch Kognitionswissenschaftler erhoffen sich davon ein besseres Verständnis über vergleichbare Vorgänge bei Mensch und Tier. Viele Forschergruppen versuchen deshalb, dem Roboter möglichst wenig Wissen fix und fertig mitzugeben.

Selbstmodell durch künstliche Evolution

Vorprogrammierte Modelle, so ihre Überlegung, würden vor allem eins zeigen: wie der Entwickler über die Maschine denkt und was er für wichtig hält. Genauso, wie man Robotern beibringt, ihre Umwelt nach eigenen Maßstäben zu kategorisieren, sollten sie daher auch in der Lage sein, sich ein entsprechend "persönliches" Bild ihrer selbst zu machen. Je mehr man im Voraus entscheidet, welche Informationen für den Roboter relevant sein könnten, desto stärker kommt das Problem, dass niemand alle Eventualitäten voraussehen kann, erneut ins Spiel – wenn auch diesmal durch die Hintertür.

Erlernen hingegen Roboter ihr Selbstmodell von ganz allein, indem sie mit der Umwelt agieren und dabei ihre Theorie fortwährend verbessern, können sie nicht nur ihr Verhalten anpassen. Im Notfall sind sie sogar in der Lage, ihre alte Theorie einfach über den Haufen zu werfen und eine neue zu finden. Mit der Folge, dass das System noch robuster gegenüber plötzlich auftretenden Fehlern wird.

Wie aber bringt man einem Roboter bei, sein eigenes Bild von sich zu machen? Auf eingebaute Kameras und geschickt platzierte Spiegel wollen die Forscher lieber nicht vertrauen – dazu reicht die Intelligenz eines Roboters bei weitem nicht aus. Josh Bongard und seine Kollegen von der Universität Vermont in Burlington stellten jetzt ein System vor, das zeigt, wie es gehen könnte [1].

Vierarmiger Seestern – Der Roboter von J. Bongard | Josh Bongards Roboter bildet von allein Hypothesen über seine äußere Form und nutzt sie, um sich fortzubewegen.
Dem Äußeren nach ein überdimensionierter schwarzer Seestern, kriecht ihr Roboter mit seinen vier seitlichen Armen über Land. Doch wie er das genau tun soll, hat ihm keiner seiner Entwickler vorher gesagt. Denn dazu nutzt der Seestern-Roboter sein Selbstmodell – in diesem Fall eine Theorie darüber, wie er selbst aussieht. Weiß er erst einmal, welche Beine sich wo befinden und wie sie sich drehen lassen, kann er berechnen, welche Bewegungen ihn vorwärts bringen würden.

Für den eigentlichen Lernvorgang generiert im Roboter ein spezieller Algorithmus eine Vielzahl von zunächst noch zufälligen Theorien. Diese testet er dann, indem er diejenige Bewegung ausführen lässt, die am ehesten geeignet ist, die Stimmigkeit jeder einzelnen Theorie zu überprüfen. Kandidaten, die falsche Resultate liefern – also Voraussagen machen, die nicht mit den Sensordaten während der Bewegung übereinstimmen – werden aussortiert. Gewinnertheorien kommen in die zweite Runde und dienen als Grundlage für eine erneut zu testende "Population" von Theorien. Dieses Spiel läuft so lange, bis keine Verbesserungen mehr eintreten. Weil ein solches Verfahren die Prinzipien der Evolution nachahmt, spricht man auch von einem "evolutionären Algorithmus".

Die Leistungsfähigkeit dieses Prinzip offenbart sich, wenn die Wissenschaftler dem Roboter ein Stück seines Beins amputieren. Schnell wird deutlich, dass das alte Selbstmodell keine zufrieden stellenden Voraussagen mehr liefert, und der Roboter ergründet seine Gestalt aufs Neue. Wie ein Tier, dass nach einer Verletzung zu hinken beginnt, passt Bongards Roboter seinen Gang schließlich an die neue Situation an.

Mit Netzen lernen

Leider überzeugt diese Vorgehensweise weder in Sachen Schnelligkeit noch durch ihre praktische Anwendbarkeit. Da könnten andere Ansätze schon vielversprechender sein. Lernfähige Netzwerke aus simulierten Neuronen lassen sich zum Beispiel darauf trainieren, nicht nur den Steuerungsablauf zu bewältigen, sondern auch – quasi im Umkehrschluss – zu ermitteln, was sie zu einem bestimmten Kommando gebracht hat. Dieses Wissen dient Forschern zur Analyse und dem Roboter zur Planung neuer Handlungen.

Allerdings ist Vorsicht geboten, dass nicht der Teufel mit dem Beelzebub ausgetrieben wird: Je komplizierter ein Netzwerk wird, desto undurchschaubarer ist es. Schließlich verraten die Aktivitätsmuster im Netz nicht, was sie bedeuten.
"Schließlich schicken wir auch unsere Kinder lieber in die Schule, anstatt sie alles durch Versuch und Irrtum lernen zu lassen"
(Peter Struss)
Damit nicht nur der Roboter weiß, was der Roboter weiß, verlegen sich anwendungsorientierte Forscher wie Peter Struss eher auf Modelle, in denen die Information in expliziter Form vorliegt. So könne man außerdem dem Roboter schon vorher das nötige Wissen mitgeben: "Schließlich schicken wir auch unsere Kinder lieber in die Schule, anstatt sie alles durch Versuch und Irrtum lernen zu lassen. Wenn es um höhere Fähigkeiten als zum Beispiel Bewegungssteuerung geht, braucht es einfach ein funktionierendes Ausgangsmodell."

Regenwurm statt Kobra

Überhaupt bleibt bei alldem fraglich, ob Roboter mit Selbstmodellen – seien es erlernte oder vorprogrammierte – in naher Zukunft ihre Kollegen ohne simuliertes Innenleben ablösen werden. Denn längst gibt es Maschinen, die über robuste, fehlertolerante Steuerungssysteme für ihre Sensoren und Antriebe verfügen. Dem kleinen Roboter TED des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme in Sankt Augustin reichen zum Beispiel nur zwei künstliche Neuronen, um seine vier Beinchen durch unebenes Gelände oder über Hindernisse hinweg steuern zu können.

SAS, die "selbstadaptierende Schlange" | Mit "Muskeln" aus Drähten einer speziellen Legierung bewegt sich die Schlange vorwärts. Ihre Steuerung lernte sie selbst durch künstliche Evolution.
Auch Lernfähigkeit und adaptives Verhalten setzen keine Modelle der Innen- und Außenwelt eines Roboters voraus. Peter Bentley und Siavash Mahdavi vom University College London statteten ihre "selbstadaptierende Schlange" (SAS) ebenfalls mit einen evolutionären Algorithmus aus, mit dem die Schlange ein Bewegungsprogramm für ihre künstlichen "Muskeln" aus Drähten erlernte. Als während der Versuche ein Draht riss, passte der Algorithmus die Steuerkommandos automatisch an: Statt wie eine Kobra bewegte sich SAS nun wie ein Regenwurm.

Einen Trumpf haben die Befürworter der Selbstmodelle jedoch noch in der Hinterhand. Vielleicht könnte ja, so die klammheimliche Hoffnung einiger Forscher, eines Tages aus den diffusen Signalen eines genügend komplexen Systems urplötzlich so etwas wie Bewusstsein entstehen. Mit einem soliden Selbstmodell wäre jedenfalls der erste Schritt getan.

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.