vis IT - Fraunhofer IOSB · zwei 3D-Tiefenkameras (Kinects) auf dem O2. SAPHARI – SICHERE MENSCH-ROBOTER-INTERAKTION taktile Sensoren zum Einsatz kommen. Die …

  • Upload
    lythuy

  • View
    213

  • Download
    0

Embed Size (px)

Citation preview

  • [ Robotik ]

    frau

    nh

    ofe

    r

    io

    sb

    www.iosb.fraunhofer.de

    ISSN 1616-8240

    vis IT

    mobile roboter

    mensch-roboter-interaktion

    autonome fahrfunktionen

    unterwasserrobotik

    effiziente navigationsstrategien

    reflexionsmessungen

    mikroLab

  • INHALT

    vis ITRobotik

    2

    Themen

    Algorithmen-Toolbox fr autonome mobile RoboterJanko Petereit, Christian Frey

    SAPHARI Sichere Mensch-Roboter-InteraktionAngelika Fetzner, Christian Frese

    Quanjo TDS - Testsystem fr skalierbare autonome FahrfunktionenFabian Mller, Andreas Wenzel

    UnterwasserrobotikTorsten Pftzenreuter

    Consumer-Robotik: Effi ziente NavigationsstrategienThomas Emter, Christian Frey

    Refl exionsmessungen mit einem robotergesttzten Goniorefl ektometerAlexander Schwarz, Martina Richter

    MikroLabPeter Frhberger

    4

    6

    8

    10

    12

    14

    15

    Seite

    Seite

    Seite

    Seite

    Seite

    Seite

    Seite

    HerausgeberProf. Dr.-Ing. habil. Jrgen Beyerer

    RedaktionSibylle Wirth

    Layout und graphische BearbeitungChristine Spalek

    DruckE&B engelhardt und bauerKarlsruhe

    Anschrift der Redaktion

    Fraunhofer-Institut fr Optronik, Systemtechnik und Bildauswertung IOSB

    Fraunhoferstr. 176131 KarlsruheTelefon +49 721 6091-300Fax +49 721 [email protected]

    Fraunhofer IOSB Karlsruhe 2013

    ein Institut der Fraunhofer-Gesellschaftzur Frderung der angewandten Forschung e. V. Mnchen

    14. JahrgangISSN 1616-8240

    Bildquellen

    Titel, Seiten: 3, 4, 6, 15, 16indigo Werbefotografi eManfred ZentschSeite: 10Helge Renkewitz Fraunhofer IOSB-ASTSeite: 11 oben, mitte Sebastian Matz Fraunhofer IOSB-AST

    Alle andere Abbildungen: Fraunhofer IOSB

    Nachdruck, auch auszugsweise, nur mit vollstndiger Quellenangabe und nach Rcksprache mit der Redaktion.

    Belegexemplare werden erbeten.

    Impressum

  • vis IT3 Robotik

    Liebe Freunde des IOSB,

    Roboter sind als vielseitige Produktionshelfer aus unserer industrialisierten Welt nicht mehr wegzudenken. Auch die Entwicklung, Herstellung und Wartung von Robotern hat einen eigenen Markt mit vielen qualifizierten Arbeitspltzen geschaffen. Im Rahmen der Initiative Industrie 4.0 bildet intelligente Robotik einen wesentlichen Bestandteil auf dem Weg zur so genannten 4. Industriellen Revolution.

    Mit diesem visIT-Heft wollen wir Ihnen einen Einblick in die neuesten Entwicklungen und Anwendungen des IOSB auf dem Gebiet der modernen Robotik verschaffen.

    Die Algorithmen-Toolbox ist ein Funktionsbaukasten, mit dem autonome mobile Roboter fr ihre unterschiedlichen Aufgaben optimal ausgerstet werden, wie z. B. Umgebungskartierung, Positionsmessung und Modellierung ihrer Umgebung.

    Bei der Zusammenarbeit von Menschen und Robotern in der Produktion ist die Einhaltung strenger Sicherheitsanforderungen besonders wichtig. Durch eine multisensorielle berwachung des Arbeitsraums durch den Roboter soll dieser selbst Gefahrensituationen erkennen und flexibel reagieren.

    Die Demonstrationsplattform Quanjo TDS stellt eine Entwicklungs- und Test-umgebung zur Verfgung, auf der sich neue Funktionen zum autonomen Fahren, zur Hinderniserkennung, Lokalisierung, Umgebungserfassung und Simulationen prfen lassen, bevor es in die Weiterentwicklung in Richtung Serie geht.

    Ein besonders wichtiges neues Anwendungsfeld ist der Ausbau der Unterwasser-robotik. Fr die Inspektion von Off-shore-Windkraftanlagen, Pipelines, Seekabeln, Aquafarmanlagen oder die Erforschung des Meeresbodens nach Ressourcensttten entsteht ein massenhafter Bedarf an autonomen Unterwasserfahrzeugen. Hierfr steht an unserem Standort in Ilmenau eine ideale Infrastruktur mit einem groen Testbecken zur Verfgung und erste Fahrzeuge sind bereits im Einsatz.

    Aber auch im Haushalt bernehmen Roboter zunehmend Arbeiten. Sie saugen, wischen oder mhen den Rasen. Eine optimale Pfadplanung und Navigation werden daher auch im Consumer-Bereich bentigt. Zwei neue Einsatzbeispiele finden Sie am Schluss des Heftes: Roboter knnen zuknftig als Laborhelfer bei der mikroskopischen Inspektion zu mehr Flexibilitt beitragen oder Material-proben hochgenau auf ihre Reflektanz-Eigenschaften untersuchen.

    Karlsruhe, im November 2013

    Prof. Dr.-Ing. habil. Jrgen Beyerer

    Prof. Dr.-Ing. habil. Jrgen Beyerer

    Editorial

  • Themen

    KO

    NT

    AK

    T

    vis IT Robotik

    4

    ALGORITHMEN-TOOLBOX FR AUTONOME MOBILE ROBOTER

    durchfhren kann. Zustzlich muss die wahrgenommene Umgebung in eine exakte Kartenreprsentation berfhrt werden. Mit dem so akquirierten Wissen soll der Roboter in der Lage sein, einen mglichst optimalen, kolli-sionsfreien Pfad zu seinem jeweiligen Ziel zu planen.

    LSUNGSKONZEPT

    Um den vielfltigen Anforderungen autonomer mobiler Roboter gerecht zu werden, ist ein breites Spektrum an komplexen Teilfunktionen umzu-setzen. Das Fraunhofer IOSB hat fr die Autonomiefunktionalitt eine Vielzahl leistungsfhiger und robuster Algorithmen entwickelt. Eingesetzt werden Methoden der Multi-Sensor-Fusion, Regelungstechnik und knst-lichen Intelligenz, wie z. B. Verfahren zur simultanen Lokalisierung / Karten-erstellung (simultaneous localization and mapping SLAM) und Pfadplanung in unstrukturiertem Gelnde.

    Die unterschiedlichen Teilfhigkeiten lassen sich zwar in einzelnen Algorith-men realisieren, jedoch sind diese zum Teil stark voneinander abhngig. Das

    EINSATZ MOBILER ROBOTER

    Mobile Roboter knnen den Menschen auf vielfltige Art und Weise unter-sttzen. Sie agieren in gefhrlichen oder unzugnglichen Umgebungen und entlasten den Menschen durch bernahme monotoner Arbeiten. Die gegenwrtigen Anwendungen reichen hierbei von Assistenzrobotern im indus- triellen Umfeld ber Aufklrungsrobo-ter in Katastrophengebieten bis hin zu Robotersystemen fr Inspektions- und Explorationsaufgaben in der Tiefsee.

    ANFORDERUNGEN

    Die Anforderungen an die Funktiona-litt mobiler Robotersysteme sind im Vergleich zu herkmmlichen Industrie-robotern deutlich hher. Mobile Sys-teme sollen autonom in einer unbe-kannten und dynamischen Umgebung agieren und Nutzfunktionen erfllen. Hierzu ist es unerlsslich, die Umwelt zu erkunden und in geeigneter Weise zu modellieren. Die mittels Sensoren aufgenommenen Informationen ms-sen zusammengefhrt werden, sodass der Roboter auf dieser Basis eine genaue Bestimmung seiner Position

    Autonomer Outdoor-Roboter.

    Dipl.-Ing. Janko Petereit

    Mess-, Regelungs- und Diagnosesysteme (MRD)Fraunhofer IOSB Karlsruhe

    Telefon +49 721 [email protected]

    www.iosb.fraunhofer.de/MRD

  • vis IT 5 Robotik

    Kartierung einer Indoor-Umgebung.

    ALGORITHMEN-TOOLBOX FR AUTONOME MOBILE ROBOTER

    verfolgte Konzept der Algorithmen-Toolbox fr Autonome Mobile Roboter besteht darin, die Algorithmen in Form von modularen Komponenten zu ent-wickeln, sodass diese trotz der vor-handenen Abhngigkeiten flexibel einsetzbar sind. Dies erlaubt es, die Modulkonfiguration entsprechend der gewnschten Nutzfunktion fr ver-schiedene mobile Plattformen, Umge-bungen und Sensorausstattungen ohne groen Aufwand anzupassen.

    BEISPIELKOMPONENTEN: KARTIE-RUNG UND BEWEGUNGSPLANUNG

    Fr die autonome Navigation muss sich der mobile Roboter mglichst exakt mittels seiner Sensoren in der Umgebung lokalisieren knnen. Hier-fr werden Messwerte verschiedener Sensoren wie z. B. Radumdrehungs-sensoren, GPS, Beschleunigungs- und Drehratensensoren fusioniert, um die Vorteile der einzelnen Messungen zu kombinieren und die Gesamtprzision zu erhhen. Zum anderen ist aber auch eine genaue Modellierung der Umge-bung hilfreich, da sich der Roboter dann an dieser orientieren kann. Diese exakte Kartierung der Umwelt, welche der Roboter auf Basis von Laserscan-nern und Kameras durchfhrt, ist nur dadurch mglich, dass die Unsicher-heiten und Fehler, welche jedem Mess-

    system innewohnen, probabilistisch modelliert und explizit in speziellen Algorithmen bercksichtigt werden [1].

    Auf Grundlage der Umgebungskarten knnen schlielich die entsprechenden Bewegungen der Roboterplattform optimal geplant werden, welche zur Erfllung der jeweiligen Nutzfunktion notwendig sind. So kann z. B. ein mglichst kurzer Pfad, ein mglichst energieeffizienter Pfad oder aber auch ein mglichst sicherer Pfad im Fokus stehen. Stets muss die Planung etwaige Randbedingungen, wie z. B. einen begrenzten Wenderadius oder eine gegebene Fahrzeugdynamik, berck-sichtigen. Die Vermeidung von Kol-lisionen mit anderen dynamischen Objekten erfordert eine sehr hohe Planungsfrequenz, um auch in unvor-hergesehenen Situationen angemessen reagieren zu knnen [2].

    FAZIT

    Die Algorithmen-Toolbox fr Auto-nome Mobile Roboter des Fraunhofer IOSB erlaubt es, ohne groen Anpas-sungsaufwand eine Vielzahl unter-schiedlicher mobiler Plattformen mit den fr ihren jeweiligen Einsatzzweck relevanten Autonomiefhigkeiten aus-zustatten. Kundenspezifische Erweite-rungen fr Anwendungen im In- und

    Outdoor-Bereich knnen Dank des modularen Konzeptes flexibel inte-griert werden.

    Dipl.-Ing. Christian Frey

    Mess-, Regelungs- und Diagnosesysteme (MRD)Fraunhofer IOSB Karlsruhe

    Telefon +49 721 [email protected]

    www.iosb.fraunhofer.de/MRDKO

    NT

    AK

    T

    Kontakt fr die Beitrge:Seiten: 4 / 5, 6 / 7, 12 / 13

    Literatur: [1] Emter, T.; Stein, A.: Simultaneous Locali-zation and Mapping with the Kinect sensor, Proceedings of the 7th German Conference on Robotics (ROBOTIK2012), 2012[2] Petereit, J.; Emter, T.; Frey, Ch.: Mobile Robot Motion Planning in Multi-Resolution Lattices with Hybrid Dimensionality, Proceedings of the IFAC Intelligent Autonomous Vehicles Symposium (IAV), 2013

  • Themen

    KO

    NT

    AK

    T

    vis IT Robotik

    6

    Dr.-Ing. Christian Frese

    Mess-, Regelungs- und Diagnosesysteme (MRD)Fraunhofer IOSB Karlsruhe

    Telefon +49 721 [email protected]

    www.iosb.fraunhofer.de/MRD

    Dipl.-Ing. Angelika Fetzner

    Mess-, Regelungs- und Diagnosesysteme (MRD)Fraunhofer IOSB Karlsruhe

    Telefon +49 721 [email protected]

    www.iosb.fraunhofer.de/MRD

    SAPHARI SICHERE MENSCH-ROBOTER-INTERAKTION

    Zur perzeptorischen und kognitiven Funktions- und Sicherheitsberwa-chung der Mensch-Roboter-Koopera-tion im Nah- und Weitbereich gibt es kaum marktreife Produkte bzw. Sys-temlsungen. Im Rahmen des EU-Pro-jekts SAPHARI Safe and Autonomous Physical Human-Aware Robot Interac-tion werden Methoden entwickelt, die eine sichere Zusammenarbeit von Mensch und Roboter ermglichen. Diese Methoden werden auf einem mobilen Manipulator im industriellen Umfeld validiert, der fr den Transport und die Montage von Bauteilen ein-gesetzt wird. Dabei werden sowohl Situationen mit unbeabsichtigter Inter-aktion betrachtet, z. B. beim Kreuzen der Roboterbahn durch einen Arbeiter, als auch Situationen mit gewnschter Interaktion, beispielsweise beim ber-geben von Bauteilen.

    SENSORSIMULATION

    Die Erfassung der Roboterumgebung erfordert zunchst eine geeignete Sensorauswahl und -platzierung. Hier-fr knnen Anwesenheitssensoren, Tiefensensoren, Intensittskameras und

    Beim Einsatz von Robotern in der Pro-duktion wird nach heutigem Stand der Technik die Sicherheit durch eine strikte Trennung von Mensch und Roboter gewhrleistet. Mit Hilfe von Zunen, Lichtschranken und hnlichen Sicher-heitsvorkehrungen wird das Betreten des Aktionskreises des Roboters verhindert oder detektiert und gegebenenfalls ein Nothalt ausgelst. Diese Vorkehrungen verhindern jedoch die gemeinsame Nut-zung von Arbeitsrumen durch Men-schen und Roboter sowie eine enge physische Zusammenarbeit.

    ARBEITSRAUMBERWACHUNG

    Um die Interaktion von Mensch und Roboter zu ermglichen und die Sicher- heit von Menschen im Arbeitsraum des Roboters zu gewhrleisten, wird eine multisensorielle berwachung des Arbeitsbereichs bentigt. Sie stellt eine Reprsentation der statischen und dynamischen Roboterumgebung zur Verfgung. Hierauf aufbauend knnen dann mit Hilfe von geeigneten Rege-lungs- und Planungsstrategien des Roboters Gefahrensituationen vermie-den werden.

    IOSB.amp O2: omnidirektionale Plattform mit 7-achsigem Leichtbauarm.

    KO

    NT

    AK

    T

  • vis IT 7 Robotik

    Visualisierung der Sensorgesichtsfelder in der Simulation. Ergebnis der Objektverfolgung mit zwei Laserscannern und zwei 3D-Tiefenkameras (Kinects) auf dem O2.

    SAPHARI SICHERE MENSCH-ROBOTER-INTERAKTION

    taktile Sensoren zum Einsatz kommen. Die Sensoren knnen sowohl auf dem Roboter als auch im Raum installiert werden. Um eine ganzheitliche Erfas-sung des Arbeitsraumes zu gewhr-leisten, mssen alle fr die Sicherheit relevanten Bereiche erfasst und etwaige Verdeckungen durch den Roboter oder zustzliche Objekte reduziert werden. Gleichzeitig ist die Anzahl der verwend-baren Sensoren aufgrund von Anschaf-fungskosten, Energiebedarf und ben-tigter Rechenleistung beschrnkt. In diesem Zusammenhang wurden am IOSB Verfahren zur 3D-Simulation von beliebigen Sensorkonfigurationen ent-wickelt, mittels derer etwaige Verde-ckungen bei der Sensorausleuchtung identifiziert werden knnen. Generische Sensormodelle erlauben die Simulation der Sensoren abhngig von der Sensor- klasse (z. B. Tiefensensoren) und Sensor- eigenschaften wie Gesichtsfeld, mini-maler bzw. maximaler Abstand und Auflsung. Die von den Sensoren erfassten Bereiche werden in der Simu-lation visualisiert und die vom Roboter verdeckten Bereiche berechnet. So ist es mglich, verschiedene Sensorkonfi-

    gurationen zu bewerten, zu vergleichen und eine geeignete Sensorkonfiguration und -platzierung zu bestimmen.

    VERFOLGUNG DYNAMISCHER HINDERNISSE

    Um mgliche Kollisionen mit dynami-schen Hindernissen, wie z. B. Menschen, frhzeitig zu erkennen und zu verhin-dern, ist die Detektion, Verfolgung und Prdiktion der Bewegung von dynamischen Objekten von besonde-rem Interesse. Die Objektverfolgung erfolgt basierend auf einer 2D-Gitter- struktur, die durch die Fusion der Tiefen- information mehrerer heterogener Sensoren erzeugt wird. Aus dem 2D-Gitter werden zusammenhngende Objekte extrahiert und unter Berck-sichtigung ihrer Position und weiterer Merkmale den bereits bekannten Objekten zugeordnet. Mit Hilfe eines Kalman-Filters, das ein generisches lineares Bewegungsmodell zugrunde legt, knnen so fr jedes Objekt die aktuelle Position und Geschwindigkeit geschtzt sowie die zuknftige Bewe-gung prdiziert werden. Des Weiteren

    Literatur: Fetzner, A.; Frese, Ch.; Frey, Ch.: Obstacle Detection and Tracking for Safe Human-Robot Interaction Based on Multi-Sensory Point Clouds. 6th International Workshop on Human-Friendly Robotics (HFR), Rome, 2013

    werden die Objekte aufgrund der geschtzten Geschwindigkeit als dynamisch oder statisch klassifiziert.

    Die Fusion verschiedener Sensoren mit unterschiedlichen Gesichtsfeldern in einem 2D-Gitter erlaubt die echtzeit-fhige Objektverfolgung im gesamten Bereich um den Roboter und ber die Grenzen einzelner Sensoren hinweg.

    FAZIT

    Die multisensorielle berwachung des Arbeitsbereichs von Robotern ermglicht eine sichere Mensch-Roboter-Interaktion im industriellen Umfeld. Da die entwi-ckelten Verfahren weitgehend unab-hngig von den verwendeten Sensor-typen sind, kann zudem eine einfache Anpassung an verschiedene Sensoren sowie unterschiedliche Roboter und Einsatzgebiete erfolgen.

  • Themen

    KO

    NT

    AK

    T

    vis IT Robotik

    8

    Abb. 1: Mit dem QUANJO TDS knnen neue Technologien und Algorithmen fr automati-sierte bzw. autonome Fahrzeuge in krzester Zeit erprobt werden.

    QUANJO TDS - TESTSYSTEM FR SKALIERBARE AUTONOME FAHRFUNKTIONEN

    ENTWICKLUNGS- UND DEMONSTRA-TIONSPLATTFORM QUANJO TDSQUANJO TDS wurde als flexibles Demonstrations- und Entwicklungs-system fr skalierbare autonome Fahr-funktionen konzipiert. Das System ver-fgt dazu neben den entsprechenden Sensoren auch ber Funktionen zur Hindernis- und Umwelterkennung sowie zu autonomen Fahrmanvern. Eine Fernsteuerung ist ber eine digi-tale Funkstrecke jederzeit mglich. Wesentliche technische Merkmale des Systems sind:OffeneArchitekturmitStandard-

    Schnittstellen (CAN),PC-freieKern-Architektur

    (instant on - Startbereit in wenigen Sekunden),

    VollstndigesDrive-by-Wire,DigitaleVideo-undDatenkommuni-

    kation (COFDM Diversity),Strsicherer,digitalerSchmalband-

    Datenkanal (433 MHz),Strsicherer,digitalerVideokanal

    (2,4 GHz, verschlsselbar),TrgerelementezumAnbringenvon

    Manipulationswerkzeugen undHybridantrieb

    (Reichweite bis zu 200 km).

    nicht mehr nur technologisch interes-sant, sondern zunehmend auch wirt-schaftlich umsetzbar. Impulsgeber dieser Entwicklung sind neben den Anwendungen im Straenverkehr auch industrielle Applikationen, wie in Logistik und Service. Aktuelle Trends in der Realisierung von Komponenten und Gesamtsystemen sind dabei die echtzeitfhige und eingebettete Rea-lisierung mit einer mglichst weit-gehenden Datenverarbeitung nah am Sensor in einem modulbasierten Gesamtkonzept. Daneben stehen ergnzend Optionen mit der Nutzung von freien Softwarebibliotheken, wie z. B. ROS (Robot Operating Sys-tem), welche zurzeit aus Funktiona-litts- und Sicherheitsgrnden vor-dergrndig Indoor-Robotersysteme betreffen.

    Mit zunehmendem Gefhrdungs-potential einer autonomen Fahrfunk-tion in der Anwendung ist ein durch-gngiger, entwicklungsbegleitender Test- und Evaluierungsprozess zu implementieren, der sowohl Teilkom-ponenten als auch das Gesamtsystem umfassen muss. Am Institutsteil Ange-wandte Systemtechnik wurde dazu das Testsystem Quanjo TDS entwickelt.

    Prof. Dr.-Ing. Andreas Wenzel

    Wasser und mobile Systeme Institutsteil Angewandte Systemtechnik (IOSB-AST)Fraunhofer IOSB Ilmenau

    Telefon +49 3677 [email protected]

    www.iosb.fraunhofer.de/AST

    KO

    NT

    AK

    T Dr.-Ing. Fabian Mller Wasser und mobile Systeme Institutsteil Angewandte Systemtechnik (IOSB-AST)Fraunhofer IOSB Ilmenau

    Telefon +49 3677 [email protected]

    www.iosb.fraunhofer.de/AST

    Technologien zur Umset-zung von autonomen Funktionen fr Fahrzeuge bzw. Roboter haben sich in den vergangenen Jahren signifikant weiter entwi-ckelt. Durch preiseffiziente Sensoren und Datenver-arbeitungskomponenten sind Anwendungen mit autonomen Fahrzeugen

  • vis IT 9 Robotik

    Abb. 2: Die GUI der Steuerungssoftware dient zur Erstellung von Missionen (Folge von Fahrmanvern) und der berwachung im Fahrbetrieb.

    Abb. 3: Das modulbasierte Steuerungssystem beinhaltet die eingebettete und echtzeitfhige Planung sowie Regelung der autonomen Plattform Quanjo TDS.

    MODULBASIERTES STEUERUNGSSYS-TEM FR AUTONOME FUNKTIONENDas Fahrtfhrungssystem besteht aus dedizierten Hardwaremodulen fr die autonomen Funktionen zur Lokalisie-rung, Umgebungserfassung (Sicherheit) sowie zur Bewegungsplanung und -regelung, die hierarchisch miteinander verbunden sind. Die Sensordatenver- arbeitung und auch die anschlieenden Planungs- und Regelungsschritte laufen auf eingebetteten Rechnereinheiten in Echtzeit mit bis zu 100 Hz ab. Mit dem Steuerungssystem knnen lngere Weg- strecken mittels vordefinierter Weg-punkte autonom abgefahren werden, wobei potentielle Kollisionen sensor-basiert vermieden werden.

    SIMULATIVE FAHRVERSUCHEIn vielen Fllen ist es wnschenswert, Versuche unter mglichst realistischen Bedingungen in Simulationen durchfh-ren zu knnen. Zu diesem Zweck wurde ein Fahrzeug-, Umgebungs- und Sensor-modell entwickelt, welches ebenfalls in Echtzeit eine fr SIL- und HIL-Tests kom-patible Testumgebung darstellt. Die zu testenden Komponenten knnen an dieses Simulationssystem ber identische Schnittstellen angebunden werden, wie spter an das eigentliche Testfahrzeug.

    ANWENDUNGENQuanjo TDS wurde zum einen im Eurostars Projekt AVATARES* einge-setzt, um ein aktives Testsystem zum Funktionsnachweis zuknftiger Fahreras-sistenzsysteme in Straenfahrzeugen zu entwickeln. Das hierbei entwickelte Test-system ist in der Lage, reproduzierbare autonome Fahrmanver hochgenau aus-zufhren. Zum anderen wird Quanjo TDS im Fraunhofer Zukunftsprojekt SENEKA zur Entwicklung von Kom-ponenten genutzt, die zuknftig auto-

    nome Fahrfunktionen fr spezielle Ein-satz- bzw. Roboterfahrzeuge im Rahmen der Katastrophenbewltigung bereit-stellen sollen. Daneben wird die Test-plattform Quanjo TDS am AST auch fr die kundenspezifische laufende Entwicklung von autonomen Fahr-funktionen und dazugehrigen Kom-ponenten der Umwelterfassung und Sensordatenauswertung verwendet.

    Literatur: [1] Mller, F.: Entwurf und Realisierung eines modulbasierten Fahrtfhrungssystems fr auto-nome Fahrzeuge. Shaker, Dissertation, 2012[2] Mueller, F.; Wenzel, A.; Gehr, A.; Ament, C.: Embedded control design of a mobile robot system: results on a robust localization module. 2010 IEEE International Conference on Control Applications (CCA) part of the IEEE Multi-Conference on Sys-tems & Control (MSC). Pages: 322-7, 2010

    * Autonomous Vehicle for Automotive Testing And REsearch in Safety, gefrdert vom BMBF, Laufzeit 2011-2013

  • Themen

    KO

    NT

    AK

    T

    vis IT Robotik

    10

    Erste Tests in der Ostsee.

    UNTERWASSERROBOTIK

    lsslich und wird auch in industriellen Anwendungen (z. B. Pipeline- und Seekabelverlegung, l- und Gasfr-derung) rege genutzt. Gleichzeitig knnen diese Roboter fr Arbeiten im Meer unabhngig von der Einsatz- tiefe eingesetzt werden.

    Autonome Roboter dienen der Erkun-dung von unterseeischen Gebieten fr zivile, aber auch militrische Zwecke. Mit ihrer Hilfe knnen geeignete Abbaugebiete fr Rohstoffe gefunden, Unterwasserinfrastrukturen wie Fundamente von Windkraft- anlagen oder Staumauern von Tal-sperren berwacht und inspiziert und nach interessanten Gegenstnden (Flugschreiber, Minen, etc.) auf dem Meeresboden gesucht werden.

    Die Abteilung Wasser und mobile Sys-teme WMS beschftigt sich seit mehr als acht Jahren mit dem Thema Unter-wasserrobotik.

    Der Einsatz von Robotern unter Wasser spielt in Deutschland im Gegensatz zu den fhrenden Meeranrainer-Staaten USA, Grobritannien, Norwegen und Japan bisher eine untergeordnete Rolle. Dies knnte sich in den kommenden Jahren grundlegend ndern: Deutsch-land beteiligt sich aktiv an der Unter-suchung mglicher Unterwasser- Bergbaugebiete, hat sich Regionen nahe Hawaii fr den Abbau von poly-metallischen Knollen gesichert und betreibt nicht zuletzt eine ausgeprgte Offshore-Windpolitik.

    In diesen und weiteren Anwendungs-feldern spielen zuknftig Unterwasser-roboter eine wichtige Rolle:

    Ferngesteuerte Roboter erlauben dem Menschen eine Teleprsenz in Regionen mit unwirtlichen oder gar lebensgefhrlichen Gebieten. Dies ist fr die Meeresforschung uner-

    Dr.-Ing. Torsten Pftzenreuter

    Wasser und mobile Systeme Institutsteil Angewandte Systemtechnik (IOSB-AST)Fraunhofer IOSB Ilmenau

    Telefon +49 3677 [email protected]

    www.iosb.fraunhofer.de/AST

  • vis IT 11 Robotik

    Die Thringer Ministerprsidentin Christine Lieberknecht, Prof. Thomas Rauschenbach (Fraunhofer IOSB-AST) und Prof. Li sowie Wis-senschaftsminister Christoph Matschie (v.r.n.l) bei der bergabe des C-Watch in Peking.

    VIELSEITIGE INSPEKTIONSAUFGABEN

    In der Klasse der kompakten fernge-steuerten Unterwasserfahrzeuge wurde das Fahrzeug C-Watch entwickelt, erste Prototypen sind bereits in China zur Inspektion von Korallenriffen im Einsatz. Ferner werden beispielsweise Aqua-kulturen auf ihre Wasserqualitt und das Verhalten der eingesetzten Fische, oder die Qualitt von Binnengewssern untersucht. C-Watch kann ber eine bis zu 1000 m lange Glasfaserverbindung von seinem Leitstand aus in interessante Gebiete gesteuert werden, die aufge-nommenen Kameravideos und Sensor- daten zeichnet es fr eine sptere Aus-wertung auf. Der eingebaute Energie-speicher reicht fr mehrere Stunden Einsatzdauer aus und kann innerhalb weniger Minuten gewechselt werden. Das System ist nahezu vollstndig an den Einsatzzweck anpassbar und kann unterschiedlichste Sensoren mit sich fhren.

    AUTONOME UNTERWASSERFAHRZEUGE

    Autonome Unterwasserfahrzeuge erffnen ein extrem weites Feld fr die angewandte Forschung: Hier entschei-det neben der Hardware (geeigneter Aufbau, Sensorausstattung usw.) auch die Fhrungssoftware ber den Erfolg eines Systems. Die Abteilung WMS ist in beiden Themengebieten aktiv und entwickelt innovative Lsungen. So konnten aus den Erfahrungen eines Fraunhofer-internen Forschungspro-jektes zur Entwicklung eines tieftauch-

    fhigen autonomen Unterwasserfahr-zeuges Anstze fr die Weiterentwick-lung zu einem erfolgreichen Produkt abgeleitet werden, die sich im kom-menden Jahr als Prototyp materialisie-ren sollen.

    Auf diesem Fahrzeug kommt eine Fhrungssoftware auf Basis des WMS-eigenen Frameworks ConSys zum Ein-satz, die sich bereits auf dem Fahrzeug C-Watch und in zwei ffentlich gefr-derten Projekten bewhrt hat: Im Projekt CView wurden Fahrzeugfhrungsalgo-rithmen fr die Inspektion von Hafen-anlagen, Spundwnden und Wind-kraftanlagen erarbeitet und erprobt. Und im Projekt KAPITAS werden derzeit Such- und Inspektionsverfahren fr die Inspektion von Pipelines und Seekabeln entwickelt. All diese Methoden knnen natrlich auch auf anderen Unterwasser- fahrzeugen eingesetzt werden. ber diese speziellen Anwendungsflle hinaus beinhaltet die Fhrungssoftware alle notwendigen Module fr den auto-nomen Betrieb eines Unterwasserfahr-zeuges. Dazu gehren unter anderem ein leistungsstarkes Missionsmanage-ment, ein universelles Nutzlastinterface sowie verschiedene Kommunikations-schnittstellen fr die Kontaktaufnahme mit dem Fahrzeug.

    Die Projekte CView und KAPITAS sind gefrdert durch das Bundesministerium fr Wirtschaft und Technologie (BMWi) aufgrund eines Beschlusses des Deut-schen Bundestages.

    Literatur: [1] Jacobi, M.; Karimanzira, D.: Underwater Pipe-line and Cable Inspection using autonomous under- water vehicles, International Oceans Conference and Exhibition OCEANS 2013, Bergen, Norwegen.[2] Jacobi, M.; Pftzenreuter, T.: Object Relative AUV Guidance for Underwater Inspection, Inter-national Conference on Computer Applications and Information Technology in the Maritime Industries (COMPIT) 2012, Lttich, Belgien.[3] Pfuetzenreuter, T.; Renkewitz, H.: ConSys - A new software framework for underwater vehicles, International Oceans Conference and Exhibition OCEANS 2010, Sydney, Australien.

  • Themen

    KO

    NT

    AK

    T

    vis IT Robotik

    12

    Haushaltsroboter. VILEDA.

    CONSUMER-ROBOTIK: EFFIZIENTE NAVIGATIONSSTRATEGIEN

    Eine kostengnstige Erweiterungs-mglichkeit stellt die Ausrstung der Produkte mit zustzlichen einfachen distanzmessenden Sensoren dar. Hierdurch ergibt sich die Mglichkeit Hindernisse, wie z. B. Stuhlbeine, auf Distanz zu detektieren und dadurch vo-rausschauend Kollisionen zu vermeiden. Darber hinaus finden sich im High-End-Bereich Sensorsysteme, welche mit Laserscannern oder Kamerasystemen ausgestattet werden, welche eine Kar-tierung des Raumes ermglichen.

    SIMULATIONSUMGEBUNG FR REINIGUNGSROBOTER

    Die sensorielle Ausstattung des Pro-duktes hngt insbesondere vom adres-sierten Marktsegment (vom Low-Cost- bis zum High-End-Gert) ab. Um ein mglichst performantes Produkt in dem jeweiligen Marksegment anbieten zu knnen, mssen insbesondere die eingesetzten Algorithmen zur Naviga- tion und Lokalisierung optimal auf das jeweilige Sensorsetup angepasst werden. Im Zusammenhang mit dieser Frage-stellung wurde am IOSB in Zusammen-arbeit mit der Fa. Freudenberg Home and Cleaning Solutions GmbH in Weinheim eine flexible Simulations-umgebung zur Entwicklung neuer optimierter Algorithmen erarbeitet.

    Mittels der am Fraunhofer IOSB entwi-ckelten Softwarelsung kann die Reini-gungsleistung fr unterschiedlichste Robotergeometrien, Sensorkonfigura-tionen und Navigationsstrategien in Abhngigkeit frei definierbarer Raum-

    Consumer-Robotik Produkte saugen Staub, wischen Fliesen und mhen den Rasen. Der Markt fr Roboter in Consumer-Anwendungen wchst in den letzten Jahren rasant. Wie bei allen mobilen Robotersystemen ist die Funk-tionalitt der Systeme in besonderem Mae abhngig von ihrer sensoriellen Ausstattung. Im Gegensatz zu indus- triellen Roboteranwendungen werden durch den hohen Kostendruck der mechatronischen Ausstattung enge Grenzen gesetzt, was wiederum beson- dere Anforderungen an die Navigations-strategien der Systeme stellt.

    HETEROGENE SENSORAUSSTATTUNGEN

    Gegenwrtig sind die einfachsten am Markt erhltlichen Bodenreinigungs-roboter lediglich mit Radumdrehungs-sensoren zur Bestimmung der Eigen- bewegung ausgestattet. Zur Erkennung von Kollisionen verfgen diese Systeme in der Regel ber eine taktile Stostange und zustzliche Klippensensoren, um ein Abstrzen des Roboters ber Treppen-abstze zu verhindern. Basierend auf dieser Grundausstattung sind am Markt Produkte mit deutlich erwei-terten Sensorausstattungen erhltlich.

    Dipl.-Ing. Thomas Emter

    Mess-, Regelungs- und Diagnosesysteme (MRD)Fraunhofer IOSB Karlsruhe

    Telefon +49 721 [email protected]

    www.iosb.fraunhofer.de/MRD

  • vis IT 13 Robotik

    Abb. 1: Navigationsstrategie mit lokalen Modi. Abb. 2: Systematische Navigationsstrategie.

    grundrisse und Hinderniskonfigurati-onen simuliert werden. Bei der Reini-gungsleistung knnen wichtige Kenn-gren, wie z. B. Reinigungsdauer, Mehrfachberdeckungen und gereinigte Flchen ermittelt werden.

    SKALIERBARE ALGORITHMEN ZUR EFFIZIENTEN NAVIGATION

    Mit einer kostengnstigen Sensoraus-stattung lsst sich eine Reinigungs-strategie realisieren, welche sich aus einzelnen sich abwechselnden Modi zusammensetzt. Diese Modi beinhalten marktblich u. a. eine archimedische Spirale, einen Wandverfolgungsmodus und einen zufallsgesteuerten Modus. Bei letzterem fhrt der Roboter zunchst geradeaus, stt er an ein Hindernis, dreht er um einen zuflligen Winkel und fhrt wieder geradeaus.

    Die Kombination der drei genannten Modi erlaubt eine gute Abdeckung des

    gesamten Raumes. Da der Roboter jedoch nur auf lokale Informationen zugreift, ist diese Reinigungsstrategie mit einer sehr langen Dauer verbunden, da viele Flchen mehrfach berfahren werden (Abb. 1). Mit einfachen distanz-messenden Sensoren lassen sich inkre-mentelle Verbesserungen erzielen, wie das Verhindern von Kollisionen und eine berhrungslose Wandverfolgung.

    SYSTEMATISCHE NAVIGATIONSSTRATEGIE

    Eine deutliche Verbesserung kann durch eine auf globalen Informationen beru-hende systematische Reinigungsstrategie erzielt werden. Hierzu ist es notwendig, dass sich der mobile Reinigungsroboter an seiner Umwelt orientieren und in ihr lokalisieren kann. Dies kann z. B. mittels eines kostengnstigen Laserscanners in Kombination mit einem Gridmap-SLAM-Algorithmus erreicht werden, welcher das Erstellen prziser und konsistenter

    Karten des Raumes erlaubt [1]. Anhand der geometrischen Karte und des abge-fahrenen Pfades kann eine systematische und sehr viel schnellere Reinigung des Raumes erfolgen (Abb. 2).

    FAZIT

    Dank der entwickelten Simulationsum-gebung kann sowohl die Navigations-strategie fr ein gegebenes Sensorsetup optimiert werden als auch eine Aussage ber die Leistungsverbesserungen durch weitere Sensoren getroffen werden.

    Literatur[1] Emter, T.; Ulrich, T.: Fusion of geometrical and visual information for localization and map-ping in outdoor environments, Proceedings of Ubiquitous Positioning, Indoor Navigation, and Location Based Service (UPINLBS), 2012

  • Themen

    KO

    NT

    AK

    T

    vis IT Robotik

    14

    REFLEXIONSMESSUNGEN MIT EINEM

    ROBOTERGESTTZTEN GONIOREFLEKTOMETER

    Dr. Alexander Schwarz

    Signatorik (SIG)Fraunhofer IOSB Ettlingen

    Telefon +49 7243 [email protected]

    www.iosb.fraunhofer.de/SIG

    werden kann. Dem Roboter werden vor der Messung die bentigten Parameter zu Beleuchtungswinkel, Messbereich und Auflsung von einem externen Steuer-PC bertragen. Danach ber-nimmt er die Steuerung des gesamten Messablaufs.Von der Robotersteuerung werden alle Messpositionen berechnet und nach-einander abgefahren. Der Roboter bewegt den Detektor halbkugelfrmig um die Messprobe herum, sodass alle gewnschten Reflexionsrichtungen durchlaufen werden. Zustzlich werden auch die Einstrahlrichtung der Beleuch-tung und die Drehung der Probe ange-steuert, wobei die beiden externen Antriebe des Tisches direkt an die Robotersteuerung gekoppelt sind. Je nach Winkelbereich und Winkelauf-lsung ergibt sich eine sehr groe Zahl von Messpunkten, die vom Roboter berechnet und angefahren werden. Die Anlage luft dann Tage oder sogar Wochen am Stck und sammelt dabei riesige Datenmengen.Ist die Messung zu Ende, kann die gemessene BRDF der Probe auf ver-schiedene Weise visualisiert werden; Abbildung 2 zeigt die reflektierte Strahlstrke einer Probe.

    Bei der optischen Inspektion tech-nischer Oberflchen spielt deren rum-liches optisches Reflexionsvermgen eine groe Rolle.Dieses kann sehr unterschiedlich sein: Spiegelnd oder diffus reflektierend. Die meisten Oberflchen streuen das Licht jedoch mehr oder weniger um die ideale Reflexionsrichtung in verschiedene Richtungen.Am IOSB wurde ein robotergesttztes Gonioreflektometer konzipiert und auf-gebaut, das automatisierte Messungen grerer Messproben mit hoher rum-licher und spektraler Auflsung ermg-licht (Abb. 1). Das Reflexionsverhalten einer Oberflche wird vollstndig mit der bidirektionalen Reflektanzvertei-lungsfunktion (BRDF) beschrieben. Die BRDF gibt fr jede Beleuchtungs- und Beobachtungsrichtung das Verhltnis von beobachteter Strahldichte zu ein-gestrahlter Bestrahlungsstrke an.Die Anlage besteht aus zwei Haupt-komponenten: Einem KUKA-Industrie- roboter, der kopfber hngend an einem Gestell angebracht ist und den Detektor trgt, und einem Dreh- und Hubtisch, auf dem die Beleuchtungseinheit ange- bracht ist und mit dem die Probe gedreht

    Abb. 1

    Abb. 2

    KO

    NT

    AK

    T Dipl.-Inform. Dipl.-Ing. (BA) Martina Richter Signatorik (SIG)Fraunhofer IOSB Ettlingen

    Telefon +49 7243 [email protected]

    www.iosb.fraunhofer.de/SIG

  • vis IT 15 Robotik

    vis IT 15 Robotik

    Aus einer Videosequenz (Ausschnitt links oben) wurde eine Tiefenkarte berechnet (rechts), die als Grundlage fr eine Oberflchenmodellie-rung mit Flchensplines (links unten) dient.

    Mikroskopische Systeme werden bei der Qualittssicherung industrieller Produkte immer gefragter. Das Fraunhofer IOSB verfolgt mit dem neuen Mikroskopie-Labor (MikroLab) den Ansatz, verschiedene Mikroskope mit Hilfe von etablierten automatisie-rungstechnischen Komponenten zu kombinieren und dadurch eine auto-matisierte mikroskopische Inspektion zu realisieren. Dazu stehen im Mikro-Lab verschiedene optische Mikroskope als Beispiele zur Verfgung. Dies sind momentan ein Makroskop mit flexiblen Beleuchtungsmglichkeiten, ein Wei-lichtinterferometer / Konfokalmikroskop, ein Forschungsmikroskop und ein 3D- rekonstruierendes Autofokus-System, welches auch zur Rauheitsmessung eingesetzt wird.

    AUTOMATISIERUNG

    Eine zentrale Rolle spielt der sechs- achsige Industrieroboter, der die Proben den einzelnen Mikroskopen positions-genau bergibt. Der Roboter ist mit einer zentralen Steuereinheit verbunden, die auf weitere Sensoren zurckgreifen kann. Das Inspektionssystem wei da- durch ber den laufenden Inspektions- prozesses Bescheid und kann den Ablauf intelligent beeinflussen. Prf-ablufe, die z. B. bei Einsatz eines Fliebands sequentiell wren, werden so auf die Mikroskope verteilt, dass

    eine mglichst gleichzeitige Nutzung aller Systeme mglich wird.

    ANWENDUNGEN

    Das MikroLab verwendet bewusst Standardkomponenten aus der Auto-matisierungstechnik. So kann das MikroLab als Gesamtsystem zur Inspek-tion, Analyse und Qualittssicherung fr eine Vielzahl von Objekten und Oberflchen verwendet werden. Durch die verfgbaren Mikroskope ist gewhr- leistet, dass eine groe Bandbreite von Aufgabenstellungen gelst werden kann. Der kombinierte Einsatz mehrerer Mikroskope erffnet neue Potenziale auch in Anwendungen, bei denen ein-zelne Mikroskope nicht ausreichend wren. Eine Integration von ausgewhl- ten Komponenten des MikroLab in bereits bestehende Systeme liee sich durch den modularen Aufbau des MikroLab einfach realisieren. Die lang-jhrige Erfahrung des IOSB im Themen-umfeld Bildverarbeitung kommt auch im MikroLab zum Tragen. Etablierte Verfahren aus den Bereichen Bildfusion oder photometrisches Stereo wurden in die mikroskopische Dimension ber- tragen. Die Adaption solcher bewhrter Verfahren trgt einen wesentlichen Teil dazu bei, modulare und industrie- taugliche mikroskopische Inspektions-systeme erfolgreich in die Anwendung zu berfhren.

    M.Sc. Peter Frhberger

    Mess-, Regelungs- und Diagnosesysteme (MRD)Fraunhofer IOSB Karlsruhe

    Telefon +49 721 [email protected]

    www.iosb.fraunhofer.de/MRD

    MikroLab

    Durch Verfahren der Bildfusion wird aus einem Bildstapel mit unterschiedlicher Fokussierung ein hochqualitatives synthetisches Ergebnisbild mit erhhter Tiefenschrfe berechnet.

    KO

    NT

    AK

    T

  • karlsruhefraunhofer-institut fr optronik, systemtechnik und bildauswertung iosbfraunhoferstrae 176131 karlsruhetelefon +49 721 6091-0fax +49 721 [email protected]

    ettlingen fraunhofer-institut fr optronik, systemtechnik und bildauswertung iosbgutleuthausstr. 176275 ettlingentelefon +49 7243 992-0fax +49 7243 992-299www.iosb.fraunhofer.de

    ilmenaufraunhofer iosb, institutsteil angewandte systemtechnik astam Vogelherd 5098693 ilmenautelefon +49 3677 4610fax +49 3677 [email protected]

    Lemgo fraunhofer iosb-inaanwendungszentrum industrial automation Langenbruch 6 32657 Lemgotelefon +49 5261 702-572fax +49 5261 702-137juergen.jasperneite@iosb-ina.fraunhofer.dewww.iosb-ina.fraunhofer.de

    beijing representative for production and information technologies unit 0610, Landmark tower ii 8 north dongsanhuan road Chaoyang district 100004 beijing, pr China telefon +86 10 6590 0621 fax +86 10 6590 0619 [email protected]