Direkt zum Inhalt

Raumfahrtroboter - Prototypen für die Industrie?



Fern aller (Alp-)Träume vom künstlichen Menschen wuchten Industrieroboter präzise und unermüdlich stählerne Bauteile. Etwa 68000 davon werkeln in deutschen Produktionsbetrieben, schweißen, löten, kleben, montieren und anderes mehr. Bei ihrer Einführung vor kaum mehr als 30 Jahren als Jobkiller gefürchtet, hat die Robotertechnik Branchen wie die Automobil-industrie flott gemacht und somit auch neue, teilweise hochwertigere Arbeitsplätze geschaffen. Trotz intensiver Forschungsaufwendungen blieb ihre Verbreitung aber hinter den Erwartungen zurück. In manchen Branchen wie der Bekleidungs- und Unterhaltungsindustrie gelang es der Robotik nicht, Fuß zu fassen, und die Produktion wurde häufig in Billiglohnländer verlagert.

Will man ihre Produktivität weiter steigern, müssen Roboter noch schneller arbeiten. Gleichzeitig sollen sie wirtschaftlich sein, also in der Anschaffung und im Betrieb kostengünstig. Für neue Anwendungen müssen sie beispielsweise lernen, mit flexiblen Gegenständen wie Schläuchen oder Kabeln sicher zu hantieren und sich auf Veränderungen der Umgebung einzustellen. Bislang sind Roboter programmierbare Automaten, die eine Abfolge von Bewegungen schneller, häufiger und präziser auszuführen vermögen als ein Mensch. Dazu benötigen sie aber eine einfach strukturierte und konstante Umgebung: Um beispielsweise eine Windschutzscheibe in eine Karosserie einzubauen, müssen ihnen beide Objekte innerhalb geringer Toleranzen exakt zugeführt werden. Ist das nicht möglich, müßte der Roboter mit entsprechenden Sinnen und Regelkreisen ausgestattet sein. Zahlreiche Pilotprojekte wurden aber in der Vergangenheit wieder eingestellt: Die für solche Automaten kalkulierten Kosten waren zu hoch, die Systeme erwiesen sich als noch wenig zuverlässig.

In unstrukturierten Umgebungen oder bei unablässig wechselnden Bedingungen ist der Mensch ihnen noch weit überlegen. Deshalb sind Industrieroboter nach wie vor meist schnelle, kräftige und aufgrund ihrer mechanischen Steifigkeit präzise Positioniermaschinen. Dazu benötigen sie aber auch erheblich Masse und können nur ein Zwanzigstel des Eigengewichts als Nutzlast tragen. Das ist mehr als eine Größenordnung weniger, als es der menschliche Arm vermag. Dementsprechend hoch sind der Energieaufwand für den Betrieb und die Sicherheitsanforderungen an eine Roboter-Arbeitszelle.

Immerhin sind Industrieroboter in den letzten zehn Jahren um etwa 75 Prozent preisgünstiger geworden – nicht zuletzt deshalb, weil die Hersteller allenthalben verfügbare PC-Technik für die Steuerungsaufgaben einsetzen, statt für jede Neuentwicklung auch eine eigene Elektronik zu entwerfen. Vermutlich wird sich der Marktpreis in den nächsten Jahren noch einmal halbieren, so daß ein Industrieroboter dann für 35000 bis 45000 Mark zu haben wäre. Dann wären solche Maschinen auch in kleineren und mittleren Unternehmen wirtschaftlich, und diese Technik fände in einer größeren Zahl von Produktionsbetrieben Verwendung.

Insbesondere europäische Hersteller haben ihre Produkte zudem hinsichtlich Dynamik und Beweglichkeit wesentlich verbessert. Dazu wurden mathematische Modelle der Maschinen und ihres Verhaltens bei Beschleunigung und Bewegung in die Steuerungssoftware integriert, beispielsweise Modelle von Kreisel-Effekten der schnell drehenden Motoren oder von Wechselwirkungen der Armsegmente untereinander.

Das machte die Maschinen um bis zu 35 Prozent schneller, und die Gelenkregler-Algorithmen können nun viele Kriterien gleichzeitig berücksichtigen. Die bewegte Last wird nun über den jeweils benötigten Motorstrom abgeschätzt. In Verbindung mit Beschleunigungssensoren könnte es des weiteren gelingen, eine Bewegung ruckartig und hochpräzise zu beenden, statt wie bisher noch ein paar Sekunden überzuschwingen. Dann ließen sich die Taktzeiten, zum Beispiel für Punktschweißvorgänge, weiter verringern.

Aufwand und Preis für die Vorrichtungen, die das zu manipulierende oder zu bearbeitende Gut präzise zuführen, sind jedoch weitgehend konstant geblieben und könnten somit bald die Kosten für Roboter übertreffen. Das ist ein weiterer Grund, die oft vorausgesagte Flexibilität durch multi-sensorielle Intelligenz in kommenden Robotergenerationen zu realisieren.

Was für den Fertigungsbetrieb wünschenswert, ist im Dienstleistungsbereich ein absolutes Muß: Die allenthalben propagierten Serviceroboter werden in veränderlicher Umgebung arbeiten. Von den Erfahrungen mit Geräten, die selbständig an Fassaden hochklettern und Fenster reinigen oder die im Krankenhaus Essen zu den Stationen befördern, wird wiederum die Industrierobotik profitieren.

Service unter Extrembedingungen sollen dereinst Raumfahrtroboter leisten. Sie werden zum Beispiel in Raumstationen sich wiederholende Experimentabläufe handhaben und Lasten transportieren, Inspektions-, Wartungs- und Reparaturarbeiten an Raumflugsystemen ausführen und das Sonnensystem stellvertretend für den Menschen erkunden. Die Pathfinder-Mission der amerikanischen Behörde für Luft- und Raumfahrt (NASA) zum Mars war ein Schritt in diese Richtung (Spektrum der Wissenschaft, September 1998, Seite 62).

Der erste Weltraum-Roboter war der von uns entwickelte ROTEX (Roboter-Technologie-Experiment). Ende April 1993 bewältigte die mit multisensorieller Intelligenz ausgestattete Maschine bei der Spacelab-D2-Mission Flexibilität erfordernde Aufgaben: Vorprogrammiert, von Astronauten über die sogenannte DLR-Steuerkugel und einen TV-Stereo-Monitor ferngesteuert, aber auch vom Boden aus fernprogrammiert und ferngesteuert, löste und verband er einen Bajonett-Verschluß (Bild 1), montierte und zerlegte Gitter-Strukturen und fing sogar ein frei fliegendes Objekt. Dazu nutzte er unter anderem einen Greifer, der mit 16 Meßfühlern, insbesondere zwei redundant ausgelegten Kraft- beziehungsweise Momentsensoren, neun Laser-Entfernungsmessern, Stereo-Kameras sowie taktiler Sensorik ausgestattet war. Mehr als 1000 elektronische und mehrere hundert mechanische Komponenten wurden miteinander integriert. Alles in allem hatte dieser Roboter damals den wohl komplexesten Zwei-Backen-Greifer.

Durch Rückkopplung der Sensor-signale an seinen eigenen Rechner besaß ROTEX sogar lokale Autonomie und versuchte, die vom menschlichen Operateur oder dem Bahnplanungsprogramm kommenden Vorgaben selbständig zu verfeinern und momentanen Gegebenheiten anzupassen. Einzige Ausnahme war das vollautomatische Einfangen des frei fliegenden Objekts; für die Steuerung wurde ein Bildverarbeitungs-Rechner in der Bodenstation genutzt. Weil zwischen dem Senden der Videodaten und dem Empfang der Steuerungsinformation an Bord bis zu sieben Sekunden vergehen konnten, wurde das Roboterverhalten anhand der bereits vorliegenden Sensorinformationen vorausberechnet und vermutliche Reaktionen auf die Fernprogrammierung oder Fernsteuerung simuliert und in drei Dimensionen graphisch dargestellt (Bild 1).

Vollfunktionsfähige Robotersysteme und Manipulatoren sollen an Bord der internationalen Raumstation arbeiten (der schon oftmals geflogene Space Shuttle-Manipulator hat keinerlei Sensorik und ähnelt eher einem Kran); ROTEX und die Nachfolgearbeiten an unserem Institut haben diese Entwicklungen wesentlich vorbereitet. Sowohl am japanischen Modul als auch am russischen werden große Manipulatoren Lasten bewegen – am russischen Modul der europäische ERA-Arm (European Robot Arm). Entlang der Gitterstruktur der Raumstation wird sich das kanadische Mehr-Robotersystem bewegen. Diese spektakuläre Konstruktion (Bild 3) besteht aus einem etwa 17 Meter langen Arm, an dem wiederum zwei etwa 3,5 Meter lange befestigt sind; während der eine davon beispielsweise eine Batterie austauscht, hält sich der an-dere an der Station fest und macht das System somit steifer. Ein kleinerer Manipulator der Europäischen Raumfahrtagentur (ESA) soll auf einer Experi-mentierplattform im Außenbereich der Station (technology exposure facility, TEF) zum Beispiel Proben bewegen. Vorgeschlagen ist darüber hinaus, Versuchsapparaturen innerhalb der Station von kleinen Robotern bewegen zu lassen, die entweder klettern oder auf Schienen vorankommen.

Zu unseren aktuellen Arbeiten gehört die Vorentwicklung von Telerobotern, die Raumflugsysteme frei anfliegen, inspizieren und gegebenenfalls warten können. Als Beispiel-Szenario dient die Reparatur des Fernsehsatelliten Sat 1, bei dem sich nach der Positionierung im Orbit vor zehn Jahren ein Sonnensegel nicht geöffnet hatte. Geostationäre Nachrichtensatelliten dieser Art haben einen sogenannten Apogäum-Motor, dessen Steuerdüse sich zum Andocken für einen Wartungsroboter eignen würde; künftige Entwicklungen von Satelliten sollten freilich entsprechende Vorrichtungen bereits einplanen. Mit seinem Einfangwerkzeug soll der Automat selbständig in die Düse eintauchen und sich dann an ihrem Hals festklammern (Bild 2).

Dazu ist er mit verschiedenen Meßsystemen ausgestattet: einem Kraftsensor, zwei längs des Werkzeugs versetzten Arrays von je drei radial angeordneten Laser-Entfernungsmessern, einer Videokamera und dem speziell angepaßten Spreizmechanismus. Nach dem Einfangen wird der Roboter den Satelliten heranziehen und mit einem einfachen Greifmechanismus umklammern, so daß der Arm wieder frei wäre, um sich über einen Wechseladapter beispielsweise eine bereits als Prototyp verfügbare elektromechanische Schere zu holen und damit die Titan-Klammern aufzuschneiden, die das Solarpanel blockieren.

Die dynamische Wechselwirkung zwischen dem im Raum taumelnden Satelliten und dem Roboter erschwert die Eintauch- und Greifbewegung. Im Labor haben wir diesen Vorgang simuliert und ein geeignetes Regelkonzept entwickelt: Zunächst beobachtet der Reparatur-Roboter die Steuerdüse mit der Videokamera und schätzt deren Bewegung über einen Filter-Algorithmus. Mit Hilfe der Laser-Sensoren führt er dann das Einfangwerkzeug konzentrisch in die Düse ein, bis der Kraftsensor Kontakt meldet und den Spreiz-Mechanismus auslöst. Weil nun Impuls auf den Satelliten übertragen wird, wird sich seine Bewegung ändern. Deshalb bleibt der Bewegungsschätzer aktiv und verwendet die je-weils optimale Sensorinformation – bei einiger Entfernung die Videobilder, beim Eintauchen dann die Laser-Sensoren und bei Kontakt die Kraft-Momente-Messung –, um die Relativbewegung zwischen Düse und Einfangwerkzeug richtig zu erfassen.


Mechatronik – Integration von Mechanik, Elektronik und Informatik



Weltraumroboter eignen sich hervorragend, neue Konzepte der Mechatronik zu entwickeln. Wie beispielsweise im All das ungünstige Verhältnis von Nutzlast und Eigengewicht der Industrieroboter nicht akzeptabel wäre, benötigen auch Reinigungsmaschinen oder Operationsroboter Leichtbau-Konstruktionen, bei denen sich die gesamte Antriebstechnik und Signalverarbeitung im Roboterarm befindet. Unser erster derartiger Leichtbau-Roboter, als Faserverbund-Struktur ausgelegt, konnte bereits etwa die Hälfte seines Eigengewichts von rund 15 Kilogramm tragen. Er war dazu unter anderem mit einer Drehmomentsensorik und -regelung in jedem Gelenk ausgestattet, um sich gegen die Schwerkraft aufrecht zu halten. Wird ein solcher Automat von neuronalen Netzen gesteuert, kann er beim passiven Herumbewegen des Arms in einer Trainingsphase selbst lernen, wieviel Drehmoment er in jeder Stellung in den Gelenken aufbringen muß. Kleinen Kräften, die irgendwo am Arm angreifen, weicht er dann sofort aus.

Manche Aufgaben erfordern multisensorielle Greifer, die wie die menschliche Hand unregelmäßig geformte und unter Umständen zerbrechliche Objekte fassen können. Anspruchsvolle Reparaturarbeiten im All wie auf der Erde sind nur maschinell zu bewältigen, wenn der Greifer zudem über mehrere und dabei mehrgliedrige Finger verfügt. Ein mechatronisches Musterbeispiel ist die DLR-4-Finger-Hand mit zwölf aktiven Gelenken (drei pro Finger), bei der es erstmalig gelang, die gesamte Antriebstechnik in die Hand und die Handwurzel zu integrieren und dennoch Greifkräfte bis zu etwa 1,5 Kilogramm zu erreichen (Bild 5; DLR ist das Kürzel des Deutschen Zentrums für Luft- und Raumfahrt).

Diese Roboterhand basiert auf dem sogenannten künstlichen Muskel, einer weltweit unter diesem Namen paten-tierten Planeten-Wälz-Gewindespindel (PWG; Bild 4), die schnelle Drehbewegungen mit niedrigem Moment extrem reibungsarm in eine langsame Linearbewegung hoher Kraft umsetzt; sie wurde erstmals im ROTEX-Greifer eingesetzt. Integriert in kleine Spezialmotoren ergeben diese Spindeln sehr kompakte Antriebselemente, die eine Alternative zu pneumatischen und hydraulischen Stellgliedern bieten. In Verbindung mit miniaturisierten Positions- und Kraftsensoren sowie entsprechenden Regelgesetzen und deren Realisierung in Mikrocontrollern erhält man daraus wiederum Federn mit programmierbarer Dämpfung. Damit erzeugen wir bei der genannten Greifhand die Steifigkeit der Finger, die jeweils erforderlich ist, um einen Gegenstand zu fassen und zu halten. Dazu werden Drehwinkel und Drehmomente mit in den Fingergelenken integrierten Sensoren gemessen.

Eine Antriebsspindel ist jeweils in das unterste Glied eines Fingers eingebaut, zwei im Basisgelenk; jeder Finger verfügt über 28 Sensoren, darunter eine Laserdiode in den Fingerkuppen, die einer Handkamera die Ortung von zu greifenden Objekten erleichtern soll, sowie Sensoren, die mit einer alle Fingerglieder umhüllenden Folie das Zentrum einer Druckeinwirkung messen, mithin die taktile Funktion der menschlichen Haut grob nachahmen. Die komplette Hand enthält mehr als 100 Sensoren, rund 1000 mechanische und etwa 1500 elektronische Komponenten. Sie ermöglicht die feinfühlige Manipulation von Objekten und soll später zu einer Prothese weiterentwickelt werden. Der Entwurf eines derart komplexen mechatronischen Systems ist freilich nur mittels modern-ster Konstruktionssoftware (3D-CAD) möglich.

Wie lassen sich nun Kräfte und Drehmomente geeignet messen? Schon in den Anfängen der Robotik wurden dafür Sensoren entwickelt, die man zwischen die letzte Achse und das Werkzeug oder den Greifer schraubte. Sie sind heute kommerziell verfügbar und arbeiten fast durchweg nach dem Prinzip, kleine Verbiegungen von Aluminium- oder Stahlkörpern über Dehnungsmeßstreifen zu erfassen (Bild 6 links) .



Hier kommt die Space Mouse



Alternativ dazu entwickelten wir einen optoelektronischen Meßgeber (Bilder 6 rechts), der auch Kern unserer Space Mouse ist, einem Interface etwa für die Roboterprogrammierung. Der Sensor besteht aus drei Ringen: Auf dem inneren sind in gleichen Abständen sechs Leuchtdioden angebracht, Schlitzblenden im mittleren Ring projizieren Lichtebenen auf den Außenring, deren Schnitt dort mit Lichtdetektoren bestimmt wird. Äußerer und innerer Ring sind über Federn verbunden und werden bei Einwirkung von Kräften und Momenten gegeneinander ausgelenkt, der Schnitt der Lichtebenen ändert sich dabei. Während die Space Mouse bereits industriell eingesetzt wird, haben Sensoren zur Kraftmessung ansonsten bislang kaum Anwendung in der Fertigung gefunden. Die Zeit ist aber mittlerweile reif für Roboter, die auf Kräfte ähnlich flink reagieren, wie der Mensch – die Sensoren liefern Signale in wenigen Millisekunden, die Robotersteuerungen vermögen diese in gleichen Zeiträumen zu verarbeiten.

Präzision und Flexibilität in der Handhabung von Objekten erfordern auch, den Abstand zum Werkzeug zu kennen. Vergleichsweise kostengünstig wäre eine Ultraschall-Messung, doch läßt sich der Strahl schlecht fokussieren und wird bei schrägem Auftreffen aufgrund der Wellenlänge im Zentimeter-Bereich von den Oberflächen oft am Empfänger vorbei reflektiert. Deshalb bevorzugen wir die Laser-Sensorik, die entweder – wie beim Ultraschall – durch Laufzeitmessung (hier allerdings innerhalb weniger billionstel Sekunden) oder durch Triangulation die Entfernung bestimmt. Bewegt man einen solchen Entfernungsmesser (zum Beispiel mit der Roboterhand) über ein Objekt, dann erhält man eine räumliche Kontur, die sich sogar in eine Oberflächendarstellung umrechnen läßt; die kann man in einem Konstruktionssystem (computer aided design, CAD) weiter verwenden. Der von uns entwickelte Laserkopf nimmt nur etwa acht Kubikzentimeter Volumen ein und wurde inzwischen durch Kombination mit einem kleinen Antriebsmotor zu einem rotierenden Laserscanner weiterentwickelt, der ohne sonst gebräuchliche Spiegelsysteme auskommt.

Das klassische Problem der Robotersteuerung in strukturierter Umgebung ist, die Position und Orientierung eines Objekts relativ zum Bezugssystem des Roboters zu erfassen. Geeignete Stereo-Videokameras sind heute in Größen von 0,5 Zentimeter Durchmesser und 3 Zentimeter Länge erhältlich und in jede Roboterhand integrierbar. Wenn nun von dem zu manipulierenden Objekt ein CAD-Modell existiert, dann gelingt es heute im Bildtakt, also etwa zwanzigmal pro Sekunde, die räumlichen Konturen des CAD-Modells mit den Konturen des im Bild gesehenen Objekts so genau zur Deckung zu bringen – und dabei auch die Sichtbarkeit der Konturen zu berücksichtigen –, daß das CAD-Modell sofort die Objektlage im Raum liefert.

Besonders effizient arbeiten solche Verfahren dann, wenn eine gute Anfangsschätzung vorliegt. Ist dies nicht der Fall, so haben sich bei unseren Arbeiten selbstorganisierende neuronale Netze bewährt, die auch bei beliebig großen Anfangsfehlern eine Lösung liefern (Bild 8). Damit lassen sich andererseits aber auch unterschiedliche Sensordaten fusionieren – also beispielsweise Bilddaten und Abstandsmessungen von Laserscannern – und so innerhalb von Sekunden räumliche CAD-Modelle generieren.

Wesentlich einfacher und robuster gelang es, im Herbst 1996 im Münchener Klinikum rechts der Isar ein bildgebendes Stereo-Endoskop durch ein Loch in der Bauchdecke des Patienten automatisch der Zange des Chirurgen nachzuführen. Statt dabei ständig Realität und Weltmodell abzugleichen, verfolgte der Roboter eine grüne Markierung an der Spitze des Instruments – eine Farbe, die im Bauchraum normalerweise nicht vorkommt. Aus dem Videobild mußte also nur diese Farbe herausgefiltert werden, es war nicht erforderlich, Konturen etwa von Organen zu erkennen und mit bekannten anatomischen Daten zu vergleichen. Dieses Verfahren wird kaum zu Fehlern führen und ist somit für den Robotereinsatz in der Chirurgie gut geeignet. Das Endoskop wurde denn auch so zitterfrei und konzentriert nachgeführt, wie dies kein Mensch über längere Zeit vermöchte.

In einem Szenario künftiger Chirurgie könnte auch ein weit entfernter Experte bei einer Telekonsultation den Endoskop-Roboter an Hand des übertragenen Videobildes fernsteuern, um seine Diagnose zu stellen. Mit der normalen Computer-Maus würden dabei fragliche Gebiete markiert. Bei Magen-Fernspiegelungen wurden solche Verfahren von uns schon in Kooperation mit dem klinischen Partner in München mehrfach demonstriert.

Roboterbasierte Fernsteuermethoden werden sich vielleicht sogar in der Herzchirurgie durchsetzen: Greift man die Fingerbewegungen des – meist in der Nähe des Patienten am Operationspult sitzenden – Chirurgen ab, der sich anhand eines Monitorbilds im Körperinnern orientiert, so lassen sich zwei Roboter steuern, die minimal invasiv Instrumente führen und durch geeignete Skalierung und Filterung weniger zittern als der Mensch. Das Vernähen von Blutgefäßen, etwa bei Bypass-Operationen, wurde so in ersten Experimenten mit in den USA entwickelten Systemen erfolgreich demonstriert.

Vermutlich wird sich die Medizin-Robotik in zwei Richtungen entwickeln: Einerseits strebt sie nach vollautonomem Verhalten, wie bei der Endoskopführung, andererseits sucht man den ferngesteuerten Betrieb durch den Chirurgen vom OP-Pult aus. In jedem Fall darf die Bedienung der Geräte vom Mediziner keine Programmierkenntnisse voraussetzen. Eine intuitive Arbeitsweise ist erforderlich, wie sie auch für andere Anwendungen der Robotik entwickelt wird.

Meist werden Roboter mit einem Handsteuergerät programmiert, wobei das Werkzeug oder Werkstück von Raumpunkt zu Raumpunkt bewegt wird; man spricht vom Teach-in-Verfahren. Wir propagieren hingegen das "Lernen durch Vormachen": Die einfachste Form, nämlich das intuitive räumliche Steuern des Roboters mit einem in das Bediengerät integrierten Interface wie der Space Mouse, ist inzwischen für einige Industrieroboter verfügbar. Damit läßt sich der Roboter kontinuierlich statt von Punkt zu Punkt steuern, während die Koordinaten und Geschwindigkeiten, also die komplette Bahn, abgespeichert werden. Eine weitere Möglichkeit ist das direkte Führen an der Roboter-Handwurzel mit einem dort angebrachten Sensorgriff; es wurde bei mikroskopführenden Medizin-Robotern realisiert und findet derzeit Eingang in die industrielle Produktion.

Statt in der realen Welt kann man Roboter auch in einem virtuellen Abbild davon "schulen"; dies ist ein Kernthema unseres Labors. Auf diese Weise sollen zwar vor allem Roboter im Weltraum fernzuprogrammieren sein, eine industrielle Anwendung ist aber ebenfalls Ziel der Entwicklung. Um die Sensorik in die Lern- oder Programmierphase einzubeziehen, werden die Aufgaben in sensorgeregelte Elementaroperationen zerlegt, die dem simulierten Roboter in der virtuellen, graphischen Umgebung gezeigt werden (Bild 1). Er registriert dabei automatisch die charakteristischen Muster der Meßgeber, die ihn später in der realen Welt erwarten. Dadurch kann der Roboter sich eventuellen Änderungen der Umgebung anpassen.

Mehrere sensorgeführte Elementaroperationen – etwa "Nähere dich der Schublade", "Greife sie", "Ziehe sie heraus" – bilden eine Operation, die ein Experte definiert und zusammensetzt. Später muß ein weniger qualifizierter Experimentator in der Bodenstation mit dem über die Space Mouse gesteuerten 3D-Cursor oder einem Datenhandschuh nur mehr die zu handhabenden Objekte in der virtuellen Welt aktivieren und eine Sequenz von Operationen zu einer Gesamtaufgabe zusammensetzen. Die wird nun zunächst vom simulierten Roboter ausgeführt, der dabei die kollisionsfreie Bewegungsplanung selbst vornimmt, und anschließend dem Bordsystem übertragen.

Noch unmittelbarer läßt sich eine Maschine programmieren, wenn ihr auch Kontakt- oder Bearbeitungskräfte etwa über kraftrückkoppelnde Handcontroller oder andere mechatronische Systeme mitgeteilt würden. Dann geschieht so etwas wie eine Implementation von Geschicklichkeit (Skill-Transfer); das ist beispielsweise für Fügevorgänge sehr vorteilhaft.

Dabei läßt sich sogar das Vermögen des Programmierers übertreffen, etwa indem ein Neuro-Fuzzy-Netz den vom Bediener in virtueller Umgebung durchgeführten Vorgang beobachtet und die zugrunde liegenden Gesetzmäßigkeiten ermittelt. Nach der Lernphase wird es den Roboter so regeln, daß Kräfte und Momente ihre Endwerte nach Möglichkeit gleichmäßig erreichen und nicht überschwingen. Alternativ zu einem kraftrückkoppelnden Handcontroller wie dem am Massachusetts Institute of Technology (MIT) entwickelten phantom läßt sich freilich auch gleich der reale Roboter anlernen, wenn er einen Kraft-Momente-Sensor in der Handwurzel besitzt und so dem Bediener die entstehenden Kräfte zurückmeldet.

Schließlich kann man Greifbewegungen einer mehrfingrigen Roboter-Hand über einen Datenhandschuh direkt vormachen (Bild 7). Auch dafür bietet sich natürlich eine Kraftrückkopplung an, erste Prototypen solcher Eingabegeräte sind mittlerweile kommerziell erhältlich, allerdings sind diese Systeme noch nicht sehr ausgereift.


Aus: Spektrum der Wissenschaft 10 / 1998, Seite 80
© Spektrum der Wissenschaft Verlagsgesellschaft mbH

Kennen Sie schon …

Robotik - Wem gehört die Zukunft?

Spektrum Kompakt – Robotik - Wem gehört die Zukunft?

Wir geben in immer mehr Bereichen an Maschinen ab. Das eröffnet ganz neue Wege, aber hinterlässt auch ein mulmiges Gefühl. Denn noch können wir ihnen nicht zuverlässig beibringen, Wichtiges von Unwichtigem zu unterscheiden. Wohin entwickelt sich die Robotik?

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!