6
RESEARCH PROJECT Space-bot 21: Projektu ¨ berblick u ¨ber das space-bot 21-Projekt an der hochschule 21 im Kontext des DLR SpaceBot Cup 2013 Thorsten Hermes Thorsten Uelzen Published online: 16 May 2014 Ó Springer-Verlag Berlin Heidelberg 2014 Zusammenfassung Das space-bot 21-Projekt ist ein F&E-Projekt des Studiengangs Mechatronik DUAL an der hochschule 21 in Buxtehude. Das Projekt ist Teil eines vom DLR Raumfahrtmanagement (http://www.dlr.de/rd/) ins Leben gerufenen Wettbewerbs namens ,,SpaceBot Cup‘‘, an dem bundesweit zehn Teams teilnehmen. Jedes Team wird vom Bundesministerium fu ¨r Wirtschaft und Technologie gefo ¨rdert. In dem Zeitraum der Projektlaufzeit haben die Teams Zeit, einen oder mehrere (kooperierende) Roboter zu entwickeln, die bestimmte Aufgaben—auto- nom zur Exploration planetarer Oberfla ¨chen—erfu ¨llen. Das Projekt endet im November 2013 mit einem dreita ¨gigen Wettbewerb. In diesem Report geben wir einen U ¨ berblick u ¨ber das space-bot 21-Projekt, das an der hochschule 21 durchgefu ¨hrt wird. 1 Einleitung Roboter sind zum gro ¨ßten Teil Assistenten des Menschen sowohl auf der Erde als auch im Weltall. Die Weltraum- robotik kann als eine Art Vorreitertechnologie angesehen werden, die auch Auswirkungen auf terrestrische An- wendungen hat. Das vorbereitende gru ¨ndliche Erforschen von Him- melsko ¨rpern kann ohne Risiken fu ¨r den Menschen nur mit Hilfe von Robotik-Systemen erfolgen. Hierbei ist es egal, ob die Systeme autonom, teil-autonom oder komplett ferngesteuert sind. Aufgrund der Entfernung von der Erde zu einem beliebigen Himmelsko ¨rper werden Lauf- zeiteffekte eines Signals zur Fernsteuerung relevant. Je mehr Autonomie diese Systeme aufweisen, desto schneller ko ¨nnen Ergebnisse der Exploration vorliegen. 1.1 Der Wettbewerb Bei dem Wettbewerb nehmen zehn Teams aus Deutschland teil. Der Background der Teams ist sehr unterschiedlich und reicht von Institutionen, die sich ausschließlich mit Robotik bescha ¨ftigen, u ¨ber Unternehmen aus diesem Ber- eich bis hin zu Universita ¨ten und Hochschulen, die diesen Wettbewerb als studentisches Großprojekt durchfu ¨hren wie die hochschule 21. Die zu absolvierenden Aufgaben reflektieren typische Aufgaben und Fa ¨higkeiten, die sowohl bei der Durchfu ¨h- rung einer Explorationsmission als auch im Bereich ter- restrischer Anwendungen wie Search & Rescue vorkommen bzw. gebraucht werden. Die Robotersysteme werden in der Landezone des Wettbewerbsterrain platziert, von wo aus sie starten. Das gesamte Gebiet besteht aus unterschiedlichen Untergru ¨nden wie Gero ¨ll und fester und loser Sand mit unterschiedlichen Steigungen von bis zu 30 auf einer Gesamtfla ¨che von ca. 40 m 25 m. Es sind von dem Roboter-System drei Teilaufgaben zu bewa ¨ltigen (vgl. [1]): Die erste Teilaufgabe besteht aus dem Auffinden und Identifizieren von drei definierten Objekten unterschiedlicher Farbe und Form. Um diese Aufgabe zu lo ¨sen, muss das Robotersystem sich in nahezu unbekanntem Gela ¨nde bewegen ko ¨nnen. Die vorgegebene grobe Karte des abzusuchenden Gela ¨ndes ist dabei zu verfeinern. Der zweite Teil der Aufgaben besteht aus der T. Hermes (&) T. Uelzen Hochschule 21 Gemeinnu ¨tzige GmbH, Staatlich Anerkannte Private Fachhochschule, Harburger Straße 6, 21614 Buxtehude Hansestadt, Germany e-mail: [email protected] T. Uelzen e-mail: [email protected] 123 Ku ¨nstl Intell (2014) 28:117–122 DOI 10.1007/s13218-014-0294-3

Space-bot 21: Projektüberblick über das space-bot 21-Projekt an der hochschule 21 im Kontext des DLR SpaceBot Cup 2013

Embed Size (px)

Citation preview

Page 1: Space-bot 21: Projektüberblick über das space-bot 21-Projekt an der hochschule 21 im Kontext des DLR SpaceBot Cup 2013

RESEARCH PROJECT

Space-bot 21: Projektuberblick uber das space-bot 21-Projektan der hochschule 21 im Kontext des DLR SpaceBot Cup 2013

Thorsten Hermes • Thorsten Uelzen

Published online: 16 May 2014

� Springer-Verlag Berlin Heidelberg 2014

Zusammenfassung Das space-bot 21-Projekt ist ein

F&E-Projekt des Studiengangs Mechatronik DUAL an der

hochschule 21 in Buxtehude. Das Projekt ist Teil eines

vom DLR Raumfahrtmanagement (http://www.dlr.de/rd/)

ins Leben gerufenen Wettbewerbs namens ,,SpaceBot

Cup‘‘, an dem bundesweit zehn Teams teilnehmen. Jedes

Team wird vom Bundesministerium fur Wirtschaft und

Technologie gefordert. In dem Zeitraum der Projektlaufzeit

haben die Teams Zeit, einen oder mehrere (kooperierende)

Roboter zu entwickeln, die bestimmte Aufgaben—auto-

nom zur Exploration planetarer Oberflachen—erfullen. Das

Projekt endet im November 2013 mit einem dreitagigen

Wettbewerb. In diesem Report geben wir einen Uberblick

uber das space-bot 21-Projekt, das an der hochschule 21

durchgefuhrt wird.

1 Einleitung

Roboter sind zum großten Teil Assistenten des Menschen

sowohl auf der Erde als auch im Weltall. Die Weltraum-

robotik kann als eine Art Vorreitertechnologie angesehen

werden, die auch Auswirkungen auf terrestrische An-

wendungen hat.

Das vorbereitende grundliche Erforschen von Him-

melskorpern kann ohne Risiken fur den Menschen nur mit

Hilfe von Robotik-Systemen erfolgen. Hierbei ist es egal,

ob die Systeme autonom, teil-autonom oder komplett

ferngesteuert sind. Aufgrund der Entfernung von der Erde

zu einem beliebigen Himmelskorper werden Lauf-

zeiteffekte eines Signals zur Fernsteuerung relevant. Je

mehr Autonomie diese Systeme aufweisen, desto schneller

konnen Ergebnisse der Exploration vorliegen.

1.1 Der Wettbewerb

Bei dem Wettbewerb nehmen zehn Teams aus Deutschland

teil. Der Background der Teams ist sehr unterschiedlich

und reicht von Institutionen, die sich ausschließlich mit

Robotik beschaftigen, uber Unternehmen aus diesem Ber-

eich bis hin zu Universitaten und Hochschulen, die diesen

Wettbewerb als studentisches Großprojekt durchfuhren wie

die hochschule 21.

Die zu absolvierenden Aufgaben reflektieren typische

Aufgaben und Fahigkeiten, die sowohl bei der Durchfuh-

rung einer Explorationsmission als auch im Bereich ter-

restrischer Anwendungen wie Search & Rescue

vorkommen bzw. gebraucht werden. Die Robotersysteme

werden in der Landezone des Wettbewerbsterrain platziert,

von wo aus sie starten. Das gesamte Gebiet besteht aus

unterschiedlichen Untergrunden wie Geroll und fester und

loser Sand mit unterschiedlichen Steigungen von bis zu 30�

auf einer Gesamtflache von ca. 40 m� 25 m.

Es sind von dem Roboter-System drei Teilaufgaben zu

bewaltigen (vgl. [1]): Die erste Teilaufgabe besteht aus

dem Auffinden und Identifizieren von drei definierten

Objekten unterschiedlicher Farbe und Form. Um diese

Aufgabe zu losen, muss das Robotersystem sich in nahezu

unbekanntem Gelande bewegen konnen. Die vorgegebene

grobe Karte des abzusuchenden Gelandes ist dabei zu

verfeinern. Der zweite Teil der Aufgaben besteht aus der

T. Hermes (&) � T. Uelzen

Hochschule 21 Gemeinnutzige GmbH, Staatlich Anerkannte

Private Fachhochschule, Harburger Straße 6,

21614 Buxtehude Hansestadt, Germany

e-mail: [email protected]

T. Uelzen

e-mail: [email protected]

123

Kunstl Intell (2014) 28:117–122

DOI 10.1007/s13218-014-0294-3

Page 2: Space-bot 21: Projektüberblick über das space-bot 21-Projekt an der hochschule 21 im Kontext des DLR SpaceBot Cup 2013

Bergung von zwei Objekten, die anschließend zum Basis-

objekt gebracht werden mussen. Hierfur muss eine sinn-

volle Pfadplanung auf Basis der in der ersten Teilaufgabe

erzeugten Karte durchgefuhrt werden. Wurden jeweils die

zwei zu transportierenden Objekte angefahren, so mussen

diese gegriffen und zum Basisobjekt gebracht werden. Dort

erfolgt somit die dritte Teilaufgabe in Form einer Montage

der zwei Objekte am Basisobjekt zu einem Gesamtsystem.

Anschließend kehrt der Roboter zu seiner Ausgangspo-

sition zuruck, wobei der Ruckweg durch ein vorher nicht

vorhandenes Hindernis versperrt ist.

1.2 Das Team

Der Wettbewerb stellt fur die Teilnehmer der hochschule 21

eine besondere Herausforderung dar, da die Studierenden

nur eine bestimmte Zeit an der hochschule 21verbringen.

Dies ist der Tatsache geschuldet, dass an der hochschule 21

ausschließlich dual ausgebildet wird. Das bedeutet, dass die

Studierenden ein halbes Semester in Unternehmen arbeiten

und die andere Halfte des Semesters an der hochschule 21

sind. Dieser Herausforderung stellen wir uns alle gerne, da

im Rahmen des Wettbewerbs eine technische Losung

entwickelt wird, die alle Bereiche des Studiengangs

Mechatronik DUAL anspricht. Gerade das macht den

Wettbewerb und somit das Projekt space-bot 21so attraktiv

sowohl fur die Studierenden als auch fur die Lehrenden. Das

Projekt ist eindeutig in der Lehre angesiedelt.

2 Autonomes Robotersystem: Space-bot 21

Auf Basis der dargestellten Anforderungen (vgl. Abschnitt

1.1)—zum einen die Kartenbildung und die Objektidenti-

fizierung und zum anderen die Navigation, das Bewegen

im Terrain und die Manipulation von Gegenstanden—

wurde ein System entwickelt, dass aus einem Rover und

einer Flugdrohne1 besteht. Im Folgenden wird der System-

aufbau und die Losungsstrategien der gestellten Aufgaben

erlautert.

2.1 Uberblick Systemaufbau

Zur schnellen und effektiven Abbildung des Terrains und

zum Auffinden der Gegenstande wird durch den Rover eine

Flugdrohne gesteuert, die das Gebiet per Kamera absucht

und die Objekte identifiziert sofern sie aus erhohter Posi-

tion auffindbar sind. Außerdem kann auf diesem Wege

schnell die erste grobe Kartendarstellung durch weitere

Identifizierungspunkte verfeinert werden.

Der Rover besitzt mehrere optische Sensoren, um vom

Boden aus die Karte zu verfeinern. Dabei wird er sich

durch das Gelande bewegen, um von unterschiedlichen

Standpunkten aus das Feld zu untersuchen. Aus der sich

daraus ergebenden Karte und den Informationen der

Drohne werden Pfade berechnet, um die unterschiedlichen

Gegenstande und die Basisstation zu finden und anzu-

fahren. Zur Manipulation besitzt der Rover einen selbst

konstruierten Greifarm.

2.2 Drohne

Bei der Flugdrohne handelt es sich um einen Quadcopter

der Firma Parrot vom Typ AR.Drone 2.0. Sie besitzt bei

einem Gewicht von 420 g die Maße 517 mm� 517 mm.

Angetrieben wird sie uber vier Rotoren, die sich im

Schwebeflug mit 28000 Umin�1 drehen.

Die Drohne verfugt uber integrierte Ultraschallsensoren

zur Bestimmung der Flughohe. Ferner ist sie ausgestattet

mit einer HD-Farbkamera mit einer ubertragungsfahigen

maximalen Auflosung von 1:280� 720 pixel. Weiterhin

besitzt die Drohne einen dreiachsigen Gyrosensor mit einer

Auflosung von 2000�=s und einen dreiachsigen Be-

schleunigungssensor mit einer Genauigkeit von 0,05 g.

Die Daten dieser Sensoren werden uber eine WLAN-

Verbindung via Router direkt an die im Rover vorhandene

Hauptrecheneinheit ubermittelt und dort ausgewertet. Uber

die Beschleunigungen und die Drehmomente wird die

aktuelle Position der Drohne und deren Flugbahn berechnet

[2]. Die Steuerung ubernimmt dabei der Hauptrechner im

Rover.

Die Bilder der Drohnenkamera werden ebenfalls uber

die WLAN-Verbindung an den Rechner ubertragen und

dienen dort der Erweiterung der Karteninformationen

primar mit dem Fokus auf Objektidentifizierung.

Auf Grund der begrenzten Akkukapazitat kann die

Drohne nicht die gesamte Zeit der Aufgabenstellung in der

Luft bleiben, so dass sie hauptsachlich zu Beginn zum

Einsatz kommt. Sie fliegt das Terrain in definierten Bahnen

ab und sammelt Informationen, wo sich die Objekte und

die Basisstation befinden.

2.3 Rover

Der Rover ist das Kernelement des autonomen Robotersys-

tems. Es ist eine komplette Eigenentwicklung im Rahmen

dieses Projekts und besteht aus mehreren Systemkomponenten.

Der in der Abb. 1 dargestellte Rover besteht aus zwei

Aluminiumgehausen, die alle Komponenten des Rovers

beinhalten. Sie besitzen eine laterale Abmessung von

ca. 410 mm� 620 mm. An der Unterseite sind vier

1 Anm.: Es liegt auf der Hand, dass andere Antriebsarten als Rotoren

fur nicht erdahnliche Atmospharen benotigt werden. Bei dem

Wettbewerb geht es lediglich um ein sog. proof-of-concept des

Zusammenspiels von Rover und Drohne.

118 Kunstl Intell (2014) 28:117–122

123

Page 3: Space-bot 21: Projektüberblick über das space-bot 21-Projekt an der hochschule 21 im Kontext des DLR SpaceBot Cup 2013

unabhangig voneinander drehbare Achsen uber je zwei

Hochleistungskugellager montiert, an denen jeweils ein

stark profilierter Luftreifen montiert ist mit einem Durch-

messer von ca. 400 mm. Jede Achse wird uber eine Zahn-

radubersetzung direkt mit einem Planetengetriebemotor

verbunden. So ist es moglich, jedes der vier Rader einzeln

und unabhangig voneinander zu bewegen.

Auf der Oberseite des Rovers ist der Manipulator

befestigt. Der Hauptrechner sendet an einen Raspberry Pi

Geschwindigkeitskommandos fur alle vier Rader, dieser

gibt dann an die Motorsteuerung (Panzersteuerung)

entsprechende Befehle. Die Geschwindigkeitskommandos

der einzelnen Rader werden mittels PID-Regler (proportional

integral derivative controller) ermittelt (vgl. [3]). Im Gehause

selber sind diverse Offnungen fur weitere Sensorik integriert

wie beispielsweise Ultraschallabstandssensoren und eine

Kinect-Sensoreinheit der Firma Microsoft.

Alle Motoren des Antriebs sind uber jeweils eine I2C-

Leistungselektronik an einen Steuerrechner (Raspberry Pi)

verbunden. Per Ethernet kommuniziert dieser Steuerrech-

ner mit der Hauptrecheneinheit, die die Steuerbefehle an

die Rader auf Basis der Pfadplanung koordiniert. Ferner

besitzen die Motoren je einen Encoder uber dem die Um-

drehungsrichtung und -geschwindigkeit ermittelt und als

Feedback genutzt werden kann.

Der Laserscanner der Firma Hokuyo (UTM-30LX) ist

direkt uber eine USB-Schnittstelle mit dem Hauptrechner

verbunden und liefert dreidimensionale Informationen der

Umgebung an das Hauptprogramm. Ebenfalls uber eine

USB-Verbindung liefert ein Gyro- und Beschleunigungs-

sensor Bewegungsdaten an den Hauptrechner, der diese

zusammen mit den Motorencodern nutzt, um die Bewe-

gung des Rovers zu uberprufen.

An einem dritten Steuerrechner vom Typ Raspberry Pi

sind weitere Sensoren angeschlossen wie Ultra-

schallabstandssensoren zur Kollisionsvermeidung, Senso-

ren zur Temperaturuberwachung im Gehause und

Strommesser zur Kontrolle verschiedener Stromaufnahmen

z.B. an den Motoren, so dass diese bei Uberlastung geregelt

werden konnen. Die Steuerung des Manipulators erfolgt

durch einen vierten Steuerrechner.

Alle Steuerrechner sind per Ethernet via Router am

Hauptrechner angeschlossen. Auf allen Steuerrechnern und

dem Hauptrechner laufen Ubuntu-Distributionen zusam-

men mit dem Software-Framework ROS (Robot Operating

System) jeweils in der Groovy-Version.

Das komplette System wird durch eine Hochleis-

tungslithiumbatterie gespeist. Diese LiFePO4-Batterie be-

sitzt eine sehr hohe Energiedichte und wurde fur Rennwagen

bis 4,000 ccm entwickelt. Sie kann bis zu 1200 A kurzfristig

und 560 A im Dauerbetrieb liefern. Fur die Antriebe und

diverse Sensorsysteme werden direkt die anliegenden 12 V

Ausgangsspannung genutzt. Ferner wird die Batteriespan-

nung herunter transformiert, um alle Steuerrechner und

diverse Mikrocontroller mit Energie zu versorgen.

Auch bei dem Manipulator handelt es sich um eine Ei-

genentwicklung, um den besonderen Anforderungen des

Wettbewerbs gerecht zu werden. Es handelt sich um einen

5-Achs-Knickarmroboter. Er ist gelagert auf einem Dreh-

teller mit Zahnkranzantrieb. Zwei Armteile hergestellt aus

PMMA (Polymethylmethacrylat), das mit Hilfe von Kohlen-

stofffaserverstarktem Kunststoff versteift ist, bilden die

Reichweite ab. Am Ende des Arms befindet sich der Grei-

fer, der sowohl uber eine Knick- als auch uber eine Dreh-

beweglichkeit verfugt. Der Greifer selbst wird uber einen

Spindelantrieb geoffnet und geschlossen. Alle Antriebe sind

zur Kalibrierung mit Endlagenschalter ausgestattet.

Alle Motoren werden uber spezielle I2C-Leistungsstufen

versorgt und uber den vierten Steuerrechner angesteuert, der

auch die Endlagen uberwacht. Dieser Manipulator besitzt

bei hoher Steifigkeit eine relativ große Reichweite, so dass er

auch z.B. in Hohlen Gegenstande greifen und bewegen kann.

Ferner ist die Kinematik so ausgelegt, dass insbesondere

Greiftatigkeiten auf dem Boden ausfuhrbar sind. Der Greif-

arm kann muhelos bis zu 1 kg schwere Gegenstande mit

Durchmessern von mehr als 100 mm greifen und manipuli-

eren, was fur die Anforderungen ausreichend ist.

2.4 Selbstlokalistaion & Kartenbildung

Die GPS-freie Kartenbildung autonomer Systeme erfolgt in

der Regel uber eine Verbindung von Odometrie und

Laserscanverfahren. Unter Odometrie versteht man die

Positionserkennung bzw. –veranderung durch das Auslesen

der Antriebe des Systems, z.B. die Anzahl der Umdreh-

ungen der Rader, wodurch die Positionsveranderung des

Systems berechnet werden kann. Diese Information alleine

ist jedoch relativ ungenau und kann zu Fehlern fuhren.

Durch die Verwendung eines sog. SLAM-Verfahrens

(Simultaneous Localization and Mapping) werden die

Werte von Odometrie und Laserscanner standig miteinan-

der abgeglichen [4, 5], so dass die moglichen

Abb. 1 Rover mit Manipulatorarm—schematisch (links), real

(rechts)

Kunstl Intell (2014) 28:117–122 119

123

Page 4: Space-bot 21: Projektüberblick über das space-bot 21-Projekt an der hochschule 21 im Kontext des DLR SpaceBot Cup 2013

Ungenauigkeiten vermindert werden. Prinzipiell wird fur

die Selbstlokalisation ein erweitertes Hector-SLAM-Ver-

fahren verwendet. Hector-SLAM wurde fur einen

ahnlichen Wettbewerb RoboCup Rescue von Studenten und

Mitarbeitern der TU Darmstadt eingesetzt und entwickelt (s.

[6]). Da in dem Wettbewerbsszenario zusatzlich Hugel zu

erklimmen bzw. Graben zu durchfahren sind, wurde der

Hector-SLAM Ansatz um die Hoheninformation erweitert.

Mit Hilfe von Sensoren wird ein digitales Abbild der

Umgebung, also eine Karte, in Bezug zur aktuellen Posi-

tion geschaffen, das beispielsweise durch ein Besetztheits-

gitter erstellt wird. Die Selbstlokalisation spielt dabei eine

entscheidende Rolle. Die Karten konnen in verschiedenen

Formaten vorliegen. Dabei nutzen beide—Roboter und

Drohne—das gleiche Koordinatensystem, dessen Ursprung

die Startposition (Landezone) darstellt. Jeder Roboter

berechnet seine eigene Position. Die Lokalisierung zuein-

ander findet uber das gemeinsame Koordinatensystem statt.

Kleine Messfehler stellen keine Probleme dar, da die

Drohne nur die ungefahre Position der Objekte bestimmen

soll. Die exakte Position wird im Anschluss von dem Rover

bestimmt. Die Nutzdaten der Drohne fur den Rover

sind die Positionen der Objekte. Die Drohne ,,publisht‘‘

sog. Marker uber das ROS-Paket ardrone_autonomy, die

Position und die Farbe des detektierten Objektes enthalten.

Diese werden von dem Rover empfangen.

Der dafur verwendete Laserentfernungscanner bietet

einen Offnungswinkel von 270� und eine Reichweite von

bis zu 30 Metern. Alle Daten werden mittels Sensor Fusion

[7] zusammengefuhrt, um die Karte zu vervollstandigen.

Es werden so genannte grid-maps erstellt. Die Navigation

wird hierbei durch Bildung von Koordinaten erleichtert.

Einzig die Große der Sektoren (Rasterpunkte vgl. Abb. 2)

und die angezeigten Karteninformationen unterscheiden

die Bereiche von Nahfeldsensoren bis hin zu Langweiten-

sensoren voneinander, wodurch die Auflosung fur die er-

forderlichen Weginformationen spezifisch angepasst

werden kann [8].

2.5 Pfadplanung & Autonomes Fahren

Da das Terrain gemaß der Aufgabe (vgl. Abschnitt 1.1) un-

bekannt ist, steht die Erstellung einer genauen Karte der

Umgebung zunachst im Vordergrund. Hierzu ist ein Weg zu

wahlen, der moglichst viele Informationen liefert. Diese sind

nicht beschrankt auf Gegenstande, die uber Abstands- bzw.

Kollisionssensoren erkannt werden, sondern beziehen auch

Untergrundinformationen ein. Die Information uber die

Umgebung wird sukzessive erweitert. Aus Odometriesen-

soren, Zahlung der Radumdrehungen und/oder Landmar-

ken sammelt das Robotersystem Informationen uber seinen

aktuellen Aufenthaltsort [9]. Zusatzlich werden hierbei

auch die Daten verwendet, die die Drohne (vgl. Abschnitt

2.2) ermittelt hat. Wenn genug Daten uber die Umgebung

sowie die eigene Position vorhanden sind, kann daraus ein

Weg berechnet werden, der den Anforderungen entspricht

[10]. Dieser Prozess ist sehr komplex, da neben der

Richtung in der Ebene noch weitere Faktoren, wie z.B.

Steigungen und Untergrundbeschaffenheit einbezogen

werden mussen.

Der verfolgte Ansatz zur Pfadplanung basiert prinzipiell

auf einem Raster. An der Position, an der sich der Rover

befindet wird ein virtuelles Sechseck um den Rover auf-

gespannt. Eine Ecke zeigt dabei immer direkt auf das

raumliche Ziel und jede Ecke stellt einen moglichen Weg-

punkt auf dem Pfad zum Ziel dar. Die Entfernung vom

Roboter zu einer Ecke stellt die Schrittweite dar, diese

wiederum die Distanz der einzelnen Wegpunkte zum Ziel

untereinander. Die einzelnen Ecken werden nach der Ent-

fernung zum Ziel gewichtet und dadurch priorisiert und

nacheinander evaluiert. Kriterien wie Neigung, Hindernisse

und Distanz zu bereits getesteten Wegpunkten bestimmen,

ob eine Ecke angefahren werden kann. Die Daten zur

Evaluierung stammen dabei aus der von der RGBD-Ka-

mera erstellten Karte. Sofern eine gultige Ecke als nachster

Wegpunkt gefunden worden ist, wird von dort erneut ein

Sechseck aufgespannt und der Vorgang beginnt von Neu-

em. Solange bis ein gultiger Pfad zum Ziel gefunden

worden ist.

Bei der Drohne wird eine Startposition festgelegt (0j0).

Mittels der IMU wird die Beschleunigung gemessen und

von der Drohne intern in eine Geschwindigkeit (mm/s)

umgerechnet. Die Geschwindigkeit wird ausgelesen und

zur Berechnung der Position mit der Referenz zum Urs-

prung genutzt (vgl. [11]). Die beiden Kameras der Droh-

ne—Front und Boden—haben keinen direkten Einfluss zur

Bestimmung der Position. Die Bodenkamera wird ver-

wendet, um die Drohne zu stabilisieren und wirkt sich

merkbar auf das Flugverhalten aus. Dies macht sich be-

sonders im Hovering-Modus bemerkbar. Dabei enthalten

sog. Twist-Messages Geschwindigkeitswerte fur die X-, Y-

und Z-Achse sowie einen Wert fur die Wink-

elgeschwindigkeit um die Z-Achse. Die Befehle take-

off,land und emergency werden in jeweils gleichnamige

Topics einer empty ROS message gesendet und verarbeitet.

2.6 Objekterkennung

Die Modell-basierte Objekterkennung verwendet die texture-

Komponente im object recognition-Modul des ROS-Frame-

works; kurz mit TOD bezeichnet. Hierbei werden zur Mo-

dellbildung Objekte auf eine definierte Unterlage gestellt.

Diese Unterlage zeichnet sich dadurch aus, dass sie Fixpunkte

besitzt, aus denen das Paket die x-, y- und z-Positionen be-

rechnen kann. Das jeweilige Objekt kann beliebig in x- und

y-Dimension ausgerichtet werden. Fur jedes so erstellte

120 Kunstl Intell (2014) 28:117–122

123

Page 5: Space-bot 21: Projektüberblick über das space-bot 21-Projekt an der hochschule 21 im Kontext des DLR SpaceBot Cup 2013

Objekt werden sog. PointCloud-Bilder erstellt. Anschließend

wird mittels des in ROS verwendeten meshlab-Tools ein 3D-

Modell berechnet. Dieses wird danach in eine Datenbank

(hier: couchdb) eingetragen. Nach den so in der Datenbank

gespeicherten Objekten kann dann gesucht werden. Das heißt,

dass die aktuellen Sensordaten dann mit den gewahlten

Modellen abgeglichen werden (Klassifikation). Zusatzlich

wird in diesem Ansatz die Kombination der TOD-Kompo-

nente mit den Ergebnissen einer Farberkennung (OpenCV)

realisiert. Dadurch verbessert sich die letztendliche

Klassifikationsrate.

Die Lage im Raum des so erkannten Objektes und seine

Position werden dann in die Karte eingetragen. Das er-

moglicht dem Rover sich so zum Objekt zu positionieren,

dass der Manipulator das Objekt greifen kann.

3 Testbed

In der Abb. 2 (links) ist schematisch das eigene Testbed als

Hohenkarte dargestellt. Jedes Quadrat steht fur einen realen

Quadratmeter. Die Codierung durch die Grauwerte sym-

bolisiert die unterschiedlichen Hohen vom Fußboden

ausgesehen. Schwarz bedeutet Fußbodenniveau und Weiß

ca. zwei Meter Hohe. Die Grauwerte dazwischen deuten

Rampen an. Gemaß der Aufgabenbeschreibung wurden

zwei verschiedene Steigungen realisiert. Zum einen eine 15

prozentige und zum anderen eine 30 prozentige Steigung.

Der Rover muss in der Lage sein, beide Steigungen

muhelos zu bewaltigen. Das Testbed hat die Ausdehnung

von 6� 9 Metern.

Die Abb. 2 (rechts) zeigt ein Realbild der Testbed als

Seitenansicht.

4 Erste Testergebnisse

In verschiedenen Testfahrten auf der Testbed wurden die

Fahreigenschaften, die Objekterkennung, das Greifen der

Objekte und die Pfadplanung untersucht. Die Ges-

chwindigkeit des Rovers ist hierbei softwareseitig auf 0; 5 ms

gedrosselt, um ein reproduzierendes und vom Ladestand

der Akkumulatoren unabhangiges Fahrverhalten zu erzeu-

gen. Mit Hilfe der stark profilierten Reifen kann der Rover

auch mit installiertem Greifarm ein Steigungung von 30�

ohne Probleme bewaltigen. Durch den unabhangigen An-

trieb aller vier Rader ist es dem Rover moglich, auf der

Stelle zu drehen (Panzersteuerung) ohne sich zu stark in

den Boden einzugraben. So ist eine maximale Wendigkeit

des Fahrzeugs gegeben, was insbesondere bei engen Pfa-

den notwendig ist. Ferner ist der Rover in der Lage, uber

sehr lockeren weichen Sand zu fahren, Steine bis zu einem

Durchmesser von ca. 20 cm zu uberfahren sowie Graben

zu uberwinden mit Seitenwandsteigungen von ca. 45� und

einer Tiefe von ca. 50 cm.

Zu Beginn einer Exploration steigt die Drohne auf etwa

3 m Hohe auf, um das Terrain maanderformig zu erkun-

den. Hier dreht sich die Drohne nicht, sondern fliegt immer

in gleicher Ausrichtung den vorgegebenen Maander ab.

Wahrend dieses Fluges, der durch die Hauptrecheneinheit

im Rover koordiniert und uberwacht wird, erkennt die

Flugdrohne bzw. die Recheneinheit im Rover farbige Ob-

jekte auf der Oberflache mit Hilfe der Farbkamera. Hierzu

mussen die Farben zuvor kalibriert werden, um eine Ver-

wechselung mit Objekten in der weiteren Umgebung zu

vermeiden. Bei zwanzig kontrolliert durchgefuhrten Sys-

temtests konnte mit einer 95 prozentigen Rate das rote

Objekt gefunden werden, mit einer 85 prozentigen Rate das

blaue Objekt und mit einer 55 prozentigen Rate das gelbe

Objekt zuverlassig lokalisiert werden. Die Herausforderung

bei dem gelben Objekt bestand in der Kontrastierung mit

dem gelblichen Sand, auf dem das Objekt lag.

In der vorhandenen Testbed (s. Abb. 3) wurden wei-

terhin 20 verschiedene Testbedingungen aufgebaut, in der

der Rover navigieren musste. Davon hat er 80 % erfolg-

reich absolviert. Bei der gegebenen Dimension der Testbed

dauerte der komplette Vorgang durchschnittlich 12 Mi-

nuten. Bei den vier nicht erfolgreichen Fahrten konnte

einmal der Pfad nicht berechnet werden, zweimal fuhr der

Rover in eine vermeintliche Sackgasse und einmal wurde

ein Hindernis nicht erkannt.

Abb. 2 Eigenes Testbed—simulierte Hohenkarte (links), Realbild

(rechts) Abb. 3 3D-Datendarstellung der Testbed

Kunstl Intell (2014) 28:117–122 121

123

Page 6: Space-bot 21: Projektüberblick über das space-bot 21-Projekt an der hochschule 21 im Kontext des DLR SpaceBot Cup 2013

Weiterhin wurden Untersuchungen durchgefuhrt, um die

Objekterkennung des Rovers im Zusammenspiel mit dem

Greifalgorithmus zu testen. Hierfur wurde das rote Objekt

in unterschiedlichen Entfernungen zum Rover platziert.

Der Rover soll das Objekt erkennen und im dreidimen-

sionalen Raum lokalisieren. Anschließend beginnt die

Berechnung, um sich dem Objekt auf die richtige Entfer-

nung zu nahern, so dass das Objekt in die Reichweite des

Manipulators gelangt. Mit Hilfe der Kamera auf dem

Manipulator erfolgt das Greifen und das sichere Lagern in

den Aufnahmen am Rover. Die Tabelle 1 zeigt die

Ergebnisse.

Von insgesamt 40 Tests fuhrten 28 zum vollstandigen

Erkennen, Greifen und Lagern im Rover. Dies ist eine Rate

von 70 %. Hier gibt es Optimierungspotential in der Ver-

steifung des Manipulators, in der Objekterkennung bzgl.

der dreidimensionalen Lokalisation inklusive Ausrichtung

sowie der Aufnahmen fur die Lagerung der Objekte.

Leider konnten diese experimentellen Ergebnisse wah-

rend des eigentlichen Wettbewerbs nicht bestatigt werden,

was nicht zuletzt den veranderten Umgebungsparametern

geschuldet war.

Danksagung Die Autoren mochten der DLR und dem Bundes-

ministerium fur Wirtschaft und Technologie danken fur die Forderung

und der Moglichkeit an diesem interessanten Wettbewerb teilzuneh-

men. Des Weiteren gilt ein besondere Dank allen beteiligten Studie-

renden der hochschule 21, ohne die das Projekt nicht durchzufuhren

gewesen ware. Besonderer Dank gilt auch den studentischen Teil-

nehmern fur ihren großen Einsatz. Namentlich sind das (in alpha-

betischer Reihenfolge) Fatih Aykun, Andre Dehne, Andre Delventhal,

Mathis Gerken, Christhoph Grefe, Alexander Kammann, Paul Muller,

Pierre Schellner, Frederic Schmehl und Benjamin Schoof.

Literatur

1. Kaupisch T, Nolke D (2013) Aufgabenstellung zum SpaceBot-

Cup des Deutschen Luft- und Raumfahrzentrums. handout

2. Bristeau PJ, Callou F, Vissiere D, Petit N (2011) The navigation

and control technology inside the AR.Drone Micro UAV. In:

Proceedings of the 18th IFAC world congress. Milano, Italy,

pp 1477–1484

3. Stephan J ROS.org: differential\_drive. http://wiki.ros.org/differ

ential_drive (2013). Zuletzt aufgerufen am 16.12.2013

4. Dissanayake G, Durrant-Whyte H, Bailey T (2000) A computa-

tionally efficient solution to the simultaneous localisation and

map building (SLAM) problem. In: Proceedings of the IEEE

international conference on robotics and automation, vol 2,

pp 1009–1014

5. Nuchter A (2009) 3D robotic mapping. Springer, Berlin

6. Kohlbrecher S, Meyer J, Graber T, Petersen K, von Stryk O,

Klingauf U (2013) Hector open source modules for autonomous

mapping and navigation with rescue robots. In: Proceedings of

17th RoboCup international symposium

7. Emter T (2010) Multi-sensor fusion for localization and mapping

for mobile robots. In: Beyerer J, Huber M (eds) Proceedings of

the IV joint workshop of Fraunhofer IOSB and Institute for

Anthropomatics, Vision and Fusion Laboratory, pp 91–106

8. Armbrust C, Braun T, Fohst T, Proetzsch M, Renner M, Schafer

B, (2011) B. K. RAVON—the robust autonomous vehicle for off-

road navigation. In: Baudoin Y, Habib MK (eds) Using robots in

hazardous environments: landmine detection, de-mining and

other applications. CRC Press, Boca Raton

9. Sturzl W (2004) Sensorik und Bildverarbeitung fur Landmarken-

basierte navigation. Ph.D. thesis, Eberhard Karls Universitat

Tubingen

10. Busch S (2006) Autonome Wegplanung mittels lokaler und

globaler Sensorik fur mobile Roboter. Master’s thesis, Universitat

Dortmund-Fachbereich Informatik

11. Tun Latt W, Shee CY, Ang W (2009) Identification of acceler-

ometer orientation Errors and compensation for acceleration

estimation errors. In: Proceedings of the IEEE international

conference on robotics and automation 2009 (ICRA), pp 577–582

Prof. Dr.-Ing. Thorsten Her-mes - Studierte in Hamburg In-

formatik mit dem

Vertiefungsgebiet der digitalen

Bildverarbeitung. 1999 erfolgte

die Promotion zum Thema

Texturen—Analyse, Beschrei-

bung und Synthese an der Uni-

versitat Bremen. Danach nahm

er Aufgaben in der Industrie u.a.

bei der TC Trustcenter GmbH

und bei der Wenzel Elektronik

GmbH wahr. Seit 2012 halt er

den Lehrstuhl fur Technische

Informatik an der hochschule 21

im Studiengang Mechatronik DUAL.

Prof. Dr.-Ing. Thorsten Uel-zen - Studierte und promovierte

an der TU Hamburg-Harburg im

Bereich Elektrotechnik/Mikro-

elektronik und Mikrosystem-

technik. Nach verschiedenen

Stationen in der Industrie u.a.

bei der Robert Bosch GmbH

verantwortlich fur die Entwick-

lung von Seitencrashsensoren

und Entwicklungsleitung bei der

IPB AG leitet er seit 2009 als

Professor fur Elektrotechnik den

Studiengang Mechatronik

DUAL an der hochschule 21 in

Buxtehude.

Tabelle 1 Untersuchung der Erkennungs- und Greifeigenschaften

des Rovers

n Abstand (m) Erkennung Greifen Lagern

10 1 100 % (10) 80 % (8) 100 % (8)

10 2 100 % (10) 90 % (9) 78 % (7)

10 3 90 % (9) 77 % (7) 86 % (6)

10 4 80 % (8) 88 % (7) 100 % (7)

40 92.5 % (37) 83.8 % (31) 90.3% (28)

In Klammern die Absolutwerte

122 Kunstl Intell (2014) 28:117–122

123