Direkt zum Inhalt

MARVIN - ein autonomes Fahrzeug mit neuronaler Steuersystem-Architektur

Wie verleiht man einem Roboter die Fähigkeit, sich frei in einer natürlichen Umgebung zu bewegen? Durch Adaption biologische Mechanismen zur Verarbeitung visueller Informationen sind Teilprobleme dieser höchst komplexen Navigationsaufgabe an der Universität Bochum gelöst worden.


Wie selbstverständlich bewegen wir uns selbst in einer unbekannten Umgebung von einem Punkt zu einem anderen, suchen uns einen geeigneten Weg und weichen Hindernissen aus. Einem fahrbaren Roboter diese trivial anmutende Fähigkeit beizubringen bereitet trotz hochentwickelter Mikroelektronik jedoch fast unüberwindliche Schwierigkeiten. Dabei wären autonome Fahrzeuge, die sich flexibel wechselnden Umgebungsbedingungen anpassen, ferngesteuerten Robotern weit überlegen. Sie könnten beispielsweise in verseuchten oder verstrahlten Industriezonen operieren, aber auch zur Versorgung von Produktionslinien oder zur automatischen Gepäckbeförderung eingesetzt werden.

Müssen alle Facetten einer sich ändernden natürlichen Umgebung vollständig rechnerisch erfaßt werden, ist die Datenflut mit konventionellen Methoden nicht zu bewältigen. Nur bei starker Abstraktion und Idealisierung sind befriedigende Lösungen zu erhalten. So wird bei herkömmlichen Systemen im industriellen Bereich eine fest definierte Umgebung mit einfach strukturierten Gegenständen (etwa solchen mit geradlinigen Konturen) vorausgesetzt; außerdem sorgt man für reproduzierbare Verhältnisse wie konstante Beleuchtung.

Lernen von der Biologie


Heute übliche Rechner haben eine fest vorgegebene Hardware mit serieller Struktur, bei der ein einziger, sehr leistungsfähigen Prozessor alle Instruktionen nacheinander abarbeitet; für jedes Problem braucht man speziell dafür entwickelte Software. Das Gehirn zeichnet sich hingegen durch eine massiv parallele Struktur aus, bei der eine große Zahl wenig leistungsfähiger Recheneinheiten (Neuronen) die von den Sinnesorganen einlaufenden Informationen jeweils nahezu gleichzeitig auswertet. Solche biologischen Systeme lösen all ihre Aufgaben praktisch mit der gleichen, allgemein einsetzbaren Software; ihre Effizienz und ihre hochgradige Flexibilität beruhen auf Wichtungen und einstellbaren Schwellenwerten sowie auf variablen Mustern von Verknüpfungen zwischen den zellulären Einheiten. Deshalb liegt es nahe, die neuronalen Verarbeitungsmechanismen als Vorbild für technische Systeme zu nehmen. Dieses Ziel verfolgt das vom Bundesministerium für Forschung und Technologie (BMFT) initiierte und geförderte Verbundprojekt "Neuronale Architekturprinzipen selbstorganisierender mobiler Systeme".

Die Arbeitsgruppe um Werner von Seelen am Institut für Neuroinformatik der Ruhr-Universität Bochum beschäftigt sich im Rahmen dieses Projekts mit der visuellen Informationsverarbeitung. Als konkrete Aufgabe haben wir uns vorgenommen, ein autonomes Fahrzeug zu entwickeln, das frei in einer natürlichen Umwelt navigiert und agiert. Aufbauend auf einfachen Verhaltensweisen soll der Roboter – genannt MARVIN (für mobile active robot vehicle for intelligent navigation) – anhand visueller Daten schrittweise lernen, seine Umgebung zu erkunden, und dabei erworbenes Wissen in einem internen Modell speichern.

Als Hauptinformationsquelle zur Orientierung nutzt das Fahrzeug ein Stereo Kamerasystem, das vollständig an unserem Institut entwickelt wurde (Bild 1). Viele seiner Eigenschaften sind dem menschlichen Auge nachempfunden. So können sich die beiden Kameras zur Tiefenwahrnehmung parallel bewegen oder auf ein Objekt konvergieren, um es zu fixieren. Ferner sind sehr schnelle kleine Bewegungen (Sakkaden) möglich, wie sie im Auge auftreten, wenn es bewegten Objekten folgt (Spektrum der Wissenschaft, März 1979, Seite 58).

Ein (alles andere als einfaches) Beispiel


Soll das Fahrzeug sich ohne fremde Hilfe zu einem bestimmten Punkt bewegen, ist eine Vielzahl von Teilproblemen zu lösen. Zunächst muß es den günstigsten Weg planen und überprüfen, ob es das Ziel schon kennt. Auf der Fahrt muß es dann auftauchenden Hindernissen ausweichen und eventuell eine neue Route ausarbeiten. Bei den Hindernissen kann es sich um ruhende – wie Kisten oder Wände – oder um bewegte Objekte handeln, etwa ein anderes Fahrzeug, das plötzlich in die geplante Bahn kommt; sie zu erkennen und zu beurteilen ist allein schon äußerst kompliziert. Schließlich ist das Ziel zu identifizieren: eine typische Mustererkennungsaufgabe. Dabei muß das Video-Bild mit einem im internen Gedächtnis gespeicherten Modell verglichen werden.

Hat das Fahrzeug das Ziel erreicht und seine Aufgabe dort beendet, soll es Erfahrungen aus dem gerade explorierten Gebiet bei weiteren Wegeplanungen berücksichtigen. Schon erkannte ortsfeste Hindernisse können dabei als definierte Referenzpunkte (sogenannte Landmarken) dienen. Hier stellt sich die Frage, welche Art von Information für den Aufbau des internen Gedächtnisses benötigt wird und wie sie im Rechner effizient dargestellt werden kann.

Lösungsansätze


Aus Experimenten zur visuellen Informationsverarbeitung und elektrophysiologischen Messungen an Tieren haben wir neuronale Funktionsmechanismen abgeleitet, deren Kopplung es ermöglicht, intelligente, problemadaptierte Verhaltensweisen zu simulieren – so die Auswahl von genauer zu untersuchenden Bereichen im Blickfeld sowie die Fixierung und das visuelle Verfolgen von interessanten Objekten. Zur technischen Umsetzung wurden Basisoperationen wie raumzeitlich rückgekoppeltes Filtern der Daten, geometrisches Kartieren und die assoziative Speicherung zur Organisation von Wissen entwickelt und in einem neuronalen Instruktionssatz zusammengefaßt, der als eine Art funktionaler Baukasten dient.

Auch bei paralleler Datenverarbeitung ist kein heutiger Computer fähig, in einer natürlichen Umgebung ein visuelles Feld von 360 Grad vollständig zu erfassen. Selbst wenn man auf die Farbinformation verzichtet und eine handelsübliche Schwarzweiß-Videokamera mit 512512 Bildpunkten und 256 Grauwertstufen verwendet, ist die Datenrate mit etwa sechs Megabyte pro Sekunde noch zu hoch, um mit herkömmlichen Methoden bewältigt zu werden. Daher muß das System die Aufmerksamkeit aktiv (durch Bewegung seiner Kameras) auf die relevanten Bildbereiche lenken können. Ein Aufmerksamkeitsmodul ist darum ein wesentliches Element eines autonomen fahrbaren Roboters.

Wir haben für MARVIN ein einfaches Modul entwickelt, das bewegte Objekte im Blickfeld zu erkennen und zu verfolgen vermag. Es basiert auf einem Bewegungsdetektor, der feststellt, wie weit und in welche Richtung sich die Bildpunkte (Pixel) in aufeinanderfolgenden Aufnahmen verschoben haben, und von diesen Vektoren die durch die Eigenbewegung des Roboters bedingten Komponenten abzieht.

Aus dem Instruktionssatz wird dabei eine aufgabenspezifische topographische Kartierung verwendet. Sie dient zum Erzeugen einer künstlichen Fovea (Netzhautgrube). Eine Besonderheit des Auges ist ja, daß nur innerhalb jener zentralen Region des Gesichtsfeldes, die auf die Fovea abgebildet wird, räumlich hochaufgelöstes Sehen möglich ist; dagegen zeichnen sich die peripheren Regionen durch eine hohe Zeitauflösung aus. Unser System ahmt diese Struktur der Netzhaut nach und nimmt jeweils nur das Zentrum des Blickfeldes detailliert wahr; dennoch kann es schnell auf sich bewegende Objekte am Blickfeldrand reagieren und sie in den fovealen Bereich bringen. Dies erspart unnötigen Speicheraufwand und bildet die Grundlage der Aufmerksamkeitssteuerung.

Eine Variante dieses Aufmerksamkeitsmoduls wird bereits praktisch angewendet. Sie ist Bestandteil des Systems CARTRACK, das der automatischen Abstandsregelung fur normale Straßenfahrzeuge dienen kann (Bild 2). Indem das Modul die Symmetrie von Automobilen als Detektionsmerkmal nutzt, erkennt es vorausfahrende Wagen und verfolgt sie mit hoher Wiederholrate im Video-Bild. Die Bildgröße eines erkannten Fahrzeugs wird dynamisch gemessen; aus den Werten lassen sich dessen Abstand und Relativgeschwindigkeit schätzen. Dieses System, im Rahmen des europäischen Projekts PROMETHEUS in enger Kooperation mit der deutschen Automobilindustrie entwickelt, hat bereits erste Erprobungen bestanden.

Für die Hinderniserkennung wurde ebenfalls ein praktikables Verfahren entwickelt und in MARVIN implementiert. Es arbeitet mit einer Koordinatentransformation, die das Video-Bild aus der Kamera- auf die Fahrebene projiziert. Hindernisse erscheinen dadurch perspektivisch verzerrt und vergrößert wie ein Schattenwurf auf der Straße. Anschließend ermittelt auch hier ein Bewegungsdetektor Verschiebungsvektoren und subtrahiert davon den leicht zu errechnenden Betrag, der sich aus der Eigenbewegung des Roboters für Punkte in der Fahrebene ergibt (Bild 3). Dabei wird die Fahrebene praktisch eliminiert. Da sich Punkte, die zu Hindernissen gehören, auf den Kamerabildern schneller und in einer anderen Richtung verschieben als solche, die an ihrem Projektionsort in der Fahrebene liegen, liefert der Detektor für sie von null verschiedene Werte.

Dieser Erkennungsprozeß läuft zur gleichen Zeit in verschiedenen Auflösungsstufen ab, wobei die jeweiligen Ergebnisse miteinander verglichen werden. Dies macht die Detektion zuverlässiger und genauer und beschleunigt sie, so daß sie nahezu in Echtzeit erfolgt.

Für die Identifizierung des Ziels schließlich dienen Verfahren, wie sie in den letzten Jahren für die Mustererkennung auf Parallelrechnern entwickelt worden sind. Sie lehnen sich gleichfalls stark an biologische Systeme an, indem sie sich neuronaler Netze und der assoziativen Speicherung von Objekten bedienen (Spektrum der Wissenschaft, Juni 1988, Seite 54, und September 1989, Seite 66). Die assoziative Speicherung bietet sich auch für das interne Gedächtnis des Roboters an, in dem erkannte Merkmale der Umgebung festgehalten werden.

MARVIN wird vom 24. bis 31. März auf der diesjährigen CeBIT in Hannover auf dem Stand des BMFT interessierten Besuchern seine bisherigen Fähigkeiten demonstrieren.

Entscheidend für den Fortgang des Projekts ist es nun, durch sinnvolle Kopplung der skizzierten Basisoperationen und Kombination geeignet gewählter einfacher Verhaltensweisen Lösungen für immer schwierigere Aufgaben zu finden und so ein zunehmend komplexeres Gesamtverhalten zu verwirklichen. Dieses sogenannte Architekturproblem ist denn auch derzeit der zentrale Forschungsgegenstand an unserem Institut. Dabei soll eine offene Architektur realisiert werden, die mit der Komplexität der Aufgabe wachsen kann, ohne mit jedem hinzukommenden Problem von Grund auf neu definiert werden zu müssen. Trotz aller Fortschritte ist dieses Ziel noch immer höchst anspruchsvoll.


Aus: Spektrum der Wissenschaft 3 / 1993, Seite 16
© Spektrum der Wissenschaft Verlagsgesellschaft mbH

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.