Upload
thorsten
View
213
Download
0
Embed Size (px)
Citation preview
RESEARCH PROJECT
Space-bot 21: Projektuberblick uber das space-bot 21-Projektan der hochschule 21 im Kontext des DLR SpaceBot Cup 2013
Thorsten Hermes • Thorsten Uelzen
Published online: 16 May 2014
� Springer-Verlag Berlin Heidelberg 2014
Zusammenfassung Das space-bot 21-Projekt ist ein
F&E-Projekt des Studiengangs Mechatronik DUAL an der
hochschule 21 in Buxtehude. Das Projekt ist Teil eines
vom DLR Raumfahrtmanagement (http://www.dlr.de/rd/)
ins Leben gerufenen Wettbewerbs namens ,,SpaceBot
Cup‘‘, an dem bundesweit zehn Teams teilnehmen. Jedes
Team wird vom Bundesministerium fur Wirtschaft und
Technologie gefordert. In dem Zeitraum der Projektlaufzeit
haben die Teams Zeit, einen oder mehrere (kooperierende)
Roboter zu entwickeln, die bestimmte Aufgaben—auto-
nom zur Exploration planetarer Oberflachen—erfullen. Das
Projekt endet im November 2013 mit einem dreitagigen
Wettbewerb. In diesem Report geben wir einen Uberblick
uber das space-bot 21-Projekt, das an der hochschule 21
durchgefuhrt wird.
1 Einleitung
Roboter sind zum großten Teil Assistenten des Menschen
sowohl auf der Erde als auch im Weltall. Die Weltraum-
robotik kann als eine Art Vorreitertechnologie angesehen
werden, die auch Auswirkungen auf terrestrische An-
wendungen hat.
Das vorbereitende grundliche Erforschen von Him-
melskorpern kann ohne Risiken fur den Menschen nur mit
Hilfe von Robotik-Systemen erfolgen. Hierbei ist es egal,
ob die Systeme autonom, teil-autonom oder komplett
ferngesteuert sind. Aufgrund der Entfernung von der Erde
zu einem beliebigen Himmelskorper werden Lauf-
zeiteffekte eines Signals zur Fernsteuerung relevant. Je
mehr Autonomie diese Systeme aufweisen, desto schneller
konnen Ergebnisse der Exploration vorliegen.
1.1 Der Wettbewerb
Bei dem Wettbewerb nehmen zehn Teams aus Deutschland
teil. Der Background der Teams ist sehr unterschiedlich
und reicht von Institutionen, die sich ausschließlich mit
Robotik beschaftigen, uber Unternehmen aus diesem Ber-
eich bis hin zu Universitaten und Hochschulen, die diesen
Wettbewerb als studentisches Großprojekt durchfuhren wie
die hochschule 21.
Die zu absolvierenden Aufgaben reflektieren typische
Aufgaben und Fahigkeiten, die sowohl bei der Durchfuh-
rung einer Explorationsmission als auch im Bereich ter-
restrischer Anwendungen wie Search & Rescue
vorkommen bzw. gebraucht werden. Die Robotersysteme
werden in der Landezone des Wettbewerbsterrain platziert,
von wo aus sie starten. Das gesamte Gebiet besteht aus
unterschiedlichen Untergrunden wie Geroll und fester und
loser Sand mit unterschiedlichen Steigungen von bis zu 30�
auf einer Gesamtflache von ca. 40 m� 25 m.
Es sind von dem Roboter-System drei Teilaufgaben zu
bewaltigen (vgl. [1]): Die erste Teilaufgabe besteht aus
dem Auffinden und Identifizieren von drei definierten
Objekten unterschiedlicher Farbe und Form. Um diese
Aufgabe zu losen, muss das Robotersystem sich in nahezu
unbekanntem Gelande bewegen konnen. Die vorgegebene
grobe Karte des abzusuchenden Gelandes ist dabei zu
verfeinern. Der zweite Teil der Aufgaben besteht aus der
T. Hermes (&) � T. Uelzen
Hochschule 21 Gemeinnutzige GmbH, Staatlich Anerkannte
Private Fachhochschule, Harburger Straße 6,
21614 Buxtehude Hansestadt, Germany
e-mail: [email protected]
T. Uelzen
e-mail: [email protected]
123
Kunstl Intell (2014) 28:117–122
DOI 10.1007/s13218-014-0294-3
Bergung von zwei Objekten, die anschließend zum Basis-
objekt gebracht werden mussen. Hierfur muss eine sinn-
volle Pfadplanung auf Basis der in der ersten Teilaufgabe
erzeugten Karte durchgefuhrt werden. Wurden jeweils die
zwei zu transportierenden Objekte angefahren, so mussen
diese gegriffen und zum Basisobjekt gebracht werden. Dort
erfolgt somit die dritte Teilaufgabe in Form einer Montage
der zwei Objekte am Basisobjekt zu einem Gesamtsystem.
Anschließend kehrt der Roboter zu seiner Ausgangspo-
sition zuruck, wobei der Ruckweg durch ein vorher nicht
vorhandenes Hindernis versperrt ist.
1.2 Das Team
Der Wettbewerb stellt fur die Teilnehmer der hochschule 21
eine besondere Herausforderung dar, da die Studierenden
nur eine bestimmte Zeit an der hochschule 21verbringen.
Dies ist der Tatsache geschuldet, dass an der hochschule 21
ausschließlich dual ausgebildet wird. Das bedeutet, dass die
Studierenden ein halbes Semester in Unternehmen arbeiten
und die andere Halfte des Semesters an der hochschule 21
sind. Dieser Herausforderung stellen wir uns alle gerne, da
im Rahmen des Wettbewerbs eine technische Losung
entwickelt wird, die alle Bereiche des Studiengangs
Mechatronik DUAL anspricht. Gerade das macht den
Wettbewerb und somit das Projekt space-bot 21so attraktiv
sowohl fur die Studierenden als auch fur die Lehrenden. Das
Projekt ist eindeutig in der Lehre angesiedelt.
2 Autonomes Robotersystem: Space-bot 21
Auf Basis der dargestellten Anforderungen (vgl. Abschnitt
1.1)—zum einen die Kartenbildung und die Objektidenti-
fizierung und zum anderen die Navigation, das Bewegen
im Terrain und die Manipulation von Gegenstanden—
wurde ein System entwickelt, dass aus einem Rover und
einer Flugdrohne1 besteht. Im Folgenden wird der System-
aufbau und die Losungsstrategien der gestellten Aufgaben
erlautert.
2.1 Uberblick Systemaufbau
Zur schnellen und effektiven Abbildung des Terrains und
zum Auffinden der Gegenstande wird durch den Rover eine
Flugdrohne gesteuert, die das Gebiet per Kamera absucht
und die Objekte identifiziert sofern sie aus erhohter Posi-
tion auffindbar sind. Außerdem kann auf diesem Wege
schnell die erste grobe Kartendarstellung durch weitere
Identifizierungspunkte verfeinert werden.
Der Rover besitzt mehrere optische Sensoren, um vom
Boden aus die Karte zu verfeinern. Dabei wird er sich
durch das Gelande bewegen, um von unterschiedlichen
Standpunkten aus das Feld zu untersuchen. Aus der sich
daraus ergebenden Karte und den Informationen der
Drohne werden Pfade berechnet, um die unterschiedlichen
Gegenstande und die Basisstation zu finden und anzu-
fahren. Zur Manipulation besitzt der Rover einen selbst
konstruierten Greifarm.
2.2 Drohne
Bei der Flugdrohne handelt es sich um einen Quadcopter
der Firma Parrot vom Typ AR.Drone 2.0. Sie besitzt bei
einem Gewicht von 420 g die Maße 517 mm� 517 mm.
Angetrieben wird sie uber vier Rotoren, die sich im
Schwebeflug mit 28000 Umin�1 drehen.
Die Drohne verfugt uber integrierte Ultraschallsensoren
zur Bestimmung der Flughohe. Ferner ist sie ausgestattet
mit einer HD-Farbkamera mit einer ubertragungsfahigen
maximalen Auflosung von 1:280� 720 pixel. Weiterhin
besitzt die Drohne einen dreiachsigen Gyrosensor mit einer
Auflosung von 2000�=s und einen dreiachsigen Be-
schleunigungssensor mit einer Genauigkeit von 0,05 g.
Die Daten dieser Sensoren werden uber eine WLAN-
Verbindung via Router direkt an die im Rover vorhandene
Hauptrecheneinheit ubermittelt und dort ausgewertet. Uber
die Beschleunigungen und die Drehmomente wird die
aktuelle Position der Drohne und deren Flugbahn berechnet
[2]. Die Steuerung ubernimmt dabei der Hauptrechner im
Rover.
Die Bilder der Drohnenkamera werden ebenfalls uber
die WLAN-Verbindung an den Rechner ubertragen und
dienen dort der Erweiterung der Karteninformationen
primar mit dem Fokus auf Objektidentifizierung.
Auf Grund der begrenzten Akkukapazitat kann die
Drohne nicht die gesamte Zeit der Aufgabenstellung in der
Luft bleiben, so dass sie hauptsachlich zu Beginn zum
Einsatz kommt. Sie fliegt das Terrain in definierten Bahnen
ab und sammelt Informationen, wo sich die Objekte und
die Basisstation befinden.
2.3 Rover
Der Rover ist das Kernelement des autonomen Robotersys-
tems. Es ist eine komplette Eigenentwicklung im Rahmen
dieses Projekts und besteht aus mehreren Systemkomponenten.
Der in der Abb. 1 dargestellte Rover besteht aus zwei
Aluminiumgehausen, die alle Komponenten des Rovers
beinhalten. Sie besitzen eine laterale Abmessung von
ca. 410 mm� 620 mm. An der Unterseite sind vier
1 Anm.: Es liegt auf der Hand, dass andere Antriebsarten als Rotoren
fur nicht erdahnliche Atmospharen benotigt werden. Bei dem
Wettbewerb geht es lediglich um ein sog. proof-of-concept des
Zusammenspiels von Rover und Drohne.
118 Kunstl Intell (2014) 28:117–122
123
unabhangig voneinander drehbare Achsen uber je zwei
Hochleistungskugellager montiert, an denen jeweils ein
stark profilierter Luftreifen montiert ist mit einem Durch-
messer von ca. 400 mm. Jede Achse wird uber eine Zahn-
radubersetzung direkt mit einem Planetengetriebemotor
verbunden. So ist es moglich, jedes der vier Rader einzeln
und unabhangig voneinander zu bewegen.
Auf der Oberseite des Rovers ist der Manipulator
befestigt. Der Hauptrechner sendet an einen Raspberry Pi
Geschwindigkeitskommandos fur alle vier Rader, dieser
gibt dann an die Motorsteuerung (Panzersteuerung)
entsprechende Befehle. Die Geschwindigkeitskommandos
der einzelnen Rader werden mittels PID-Regler (proportional
integral derivative controller) ermittelt (vgl. [3]). Im Gehause
selber sind diverse Offnungen fur weitere Sensorik integriert
wie beispielsweise Ultraschallabstandssensoren und eine
Kinect-Sensoreinheit der Firma Microsoft.
Alle Motoren des Antriebs sind uber jeweils eine I2C-
Leistungselektronik an einen Steuerrechner (Raspberry Pi)
verbunden. Per Ethernet kommuniziert dieser Steuerrech-
ner mit der Hauptrecheneinheit, die die Steuerbefehle an
die Rader auf Basis der Pfadplanung koordiniert. Ferner
besitzen die Motoren je einen Encoder uber dem die Um-
drehungsrichtung und -geschwindigkeit ermittelt und als
Feedback genutzt werden kann.
Der Laserscanner der Firma Hokuyo (UTM-30LX) ist
direkt uber eine USB-Schnittstelle mit dem Hauptrechner
verbunden und liefert dreidimensionale Informationen der
Umgebung an das Hauptprogramm. Ebenfalls uber eine
USB-Verbindung liefert ein Gyro- und Beschleunigungs-
sensor Bewegungsdaten an den Hauptrechner, der diese
zusammen mit den Motorencodern nutzt, um die Bewe-
gung des Rovers zu uberprufen.
An einem dritten Steuerrechner vom Typ Raspberry Pi
sind weitere Sensoren angeschlossen wie Ultra-
schallabstandssensoren zur Kollisionsvermeidung, Senso-
ren zur Temperaturuberwachung im Gehause und
Strommesser zur Kontrolle verschiedener Stromaufnahmen
z.B. an den Motoren, so dass diese bei Uberlastung geregelt
werden konnen. Die Steuerung des Manipulators erfolgt
durch einen vierten Steuerrechner.
Alle Steuerrechner sind per Ethernet via Router am
Hauptrechner angeschlossen. Auf allen Steuerrechnern und
dem Hauptrechner laufen Ubuntu-Distributionen zusam-
men mit dem Software-Framework ROS (Robot Operating
System) jeweils in der Groovy-Version.
Das komplette System wird durch eine Hochleis-
tungslithiumbatterie gespeist. Diese LiFePO4-Batterie be-
sitzt eine sehr hohe Energiedichte und wurde fur Rennwagen
bis 4,000 ccm entwickelt. Sie kann bis zu 1200 A kurzfristig
und 560 A im Dauerbetrieb liefern. Fur die Antriebe und
diverse Sensorsysteme werden direkt die anliegenden 12 V
Ausgangsspannung genutzt. Ferner wird die Batteriespan-
nung herunter transformiert, um alle Steuerrechner und
diverse Mikrocontroller mit Energie zu versorgen.
Auch bei dem Manipulator handelt es sich um eine Ei-
genentwicklung, um den besonderen Anforderungen des
Wettbewerbs gerecht zu werden. Es handelt sich um einen
5-Achs-Knickarmroboter. Er ist gelagert auf einem Dreh-
teller mit Zahnkranzantrieb. Zwei Armteile hergestellt aus
PMMA (Polymethylmethacrylat), das mit Hilfe von Kohlen-
stofffaserverstarktem Kunststoff versteift ist, bilden die
Reichweite ab. Am Ende des Arms befindet sich der Grei-
fer, der sowohl uber eine Knick- als auch uber eine Dreh-
beweglichkeit verfugt. Der Greifer selbst wird uber einen
Spindelantrieb geoffnet und geschlossen. Alle Antriebe sind
zur Kalibrierung mit Endlagenschalter ausgestattet.
Alle Motoren werden uber spezielle I2C-Leistungsstufen
versorgt und uber den vierten Steuerrechner angesteuert, der
auch die Endlagen uberwacht. Dieser Manipulator besitzt
bei hoher Steifigkeit eine relativ große Reichweite, so dass er
auch z.B. in Hohlen Gegenstande greifen und bewegen kann.
Ferner ist die Kinematik so ausgelegt, dass insbesondere
Greiftatigkeiten auf dem Boden ausfuhrbar sind. Der Greif-
arm kann muhelos bis zu 1 kg schwere Gegenstande mit
Durchmessern von mehr als 100 mm greifen und manipuli-
eren, was fur die Anforderungen ausreichend ist.
2.4 Selbstlokalistaion & Kartenbildung
Die GPS-freie Kartenbildung autonomer Systeme erfolgt in
der Regel uber eine Verbindung von Odometrie und
Laserscanverfahren. Unter Odometrie versteht man die
Positionserkennung bzw. –veranderung durch das Auslesen
der Antriebe des Systems, z.B. die Anzahl der Umdreh-
ungen der Rader, wodurch die Positionsveranderung des
Systems berechnet werden kann. Diese Information alleine
ist jedoch relativ ungenau und kann zu Fehlern fuhren.
Durch die Verwendung eines sog. SLAM-Verfahrens
(Simultaneous Localization and Mapping) werden die
Werte von Odometrie und Laserscanner standig miteinan-
der abgeglichen [4, 5], so dass die moglichen
Abb. 1 Rover mit Manipulatorarm—schematisch (links), real
(rechts)
Kunstl Intell (2014) 28:117–122 119
123
Ungenauigkeiten vermindert werden. Prinzipiell wird fur
die Selbstlokalisation ein erweitertes Hector-SLAM-Ver-
fahren verwendet. Hector-SLAM wurde fur einen
ahnlichen Wettbewerb RoboCup Rescue von Studenten und
Mitarbeitern der TU Darmstadt eingesetzt und entwickelt (s.
[6]). Da in dem Wettbewerbsszenario zusatzlich Hugel zu
erklimmen bzw. Graben zu durchfahren sind, wurde der
Hector-SLAM Ansatz um die Hoheninformation erweitert.
Mit Hilfe von Sensoren wird ein digitales Abbild der
Umgebung, also eine Karte, in Bezug zur aktuellen Posi-
tion geschaffen, das beispielsweise durch ein Besetztheits-
gitter erstellt wird. Die Selbstlokalisation spielt dabei eine
entscheidende Rolle. Die Karten konnen in verschiedenen
Formaten vorliegen. Dabei nutzen beide—Roboter und
Drohne—das gleiche Koordinatensystem, dessen Ursprung
die Startposition (Landezone) darstellt. Jeder Roboter
berechnet seine eigene Position. Die Lokalisierung zuein-
ander findet uber das gemeinsame Koordinatensystem statt.
Kleine Messfehler stellen keine Probleme dar, da die
Drohne nur die ungefahre Position der Objekte bestimmen
soll. Die exakte Position wird im Anschluss von dem Rover
bestimmt. Die Nutzdaten der Drohne fur den Rover
sind die Positionen der Objekte. Die Drohne ,,publisht‘‘
sog. Marker uber das ROS-Paket ardrone_autonomy, die
Position und die Farbe des detektierten Objektes enthalten.
Diese werden von dem Rover empfangen.
Der dafur verwendete Laserentfernungscanner bietet
einen Offnungswinkel von 270� und eine Reichweite von
bis zu 30 Metern. Alle Daten werden mittels Sensor Fusion
[7] zusammengefuhrt, um die Karte zu vervollstandigen.
Es werden so genannte grid-maps erstellt. Die Navigation
wird hierbei durch Bildung von Koordinaten erleichtert.
Einzig die Große der Sektoren (Rasterpunkte vgl. Abb. 2)
und die angezeigten Karteninformationen unterscheiden
die Bereiche von Nahfeldsensoren bis hin zu Langweiten-
sensoren voneinander, wodurch die Auflosung fur die er-
forderlichen Weginformationen spezifisch angepasst
werden kann [8].
2.5 Pfadplanung & Autonomes Fahren
Da das Terrain gemaß der Aufgabe (vgl. Abschnitt 1.1) un-
bekannt ist, steht die Erstellung einer genauen Karte der
Umgebung zunachst im Vordergrund. Hierzu ist ein Weg zu
wahlen, der moglichst viele Informationen liefert. Diese sind
nicht beschrankt auf Gegenstande, die uber Abstands- bzw.
Kollisionssensoren erkannt werden, sondern beziehen auch
Untergrundinformationen ein. Die Information uber die
Umgebung wird sukzessive erweitert. Aus Odometriesen-
soren, Zahlung der Radumdrehungen und/oder Landmar-
ken sammelt das Robotersystem Informationen uber seinen
aktuellen Aufenthaltsort [9]. Zusatzlich werden hierbei
auch die Daten verwendet, die die Drohne (vgl. Abschnitt
2.2) ermittelt hat. Wenn genug Daten uber die Umgebung
sowie die eigene Position vorhanden sind, kann daraus ein
Weg berechnet werden, der den Anforderungen entspricht
[10]. Dieser Prozess ist sehr komplex, da neben der
Richtung in der Ebene noch weitere Faktoren, wie z.B.
Steigungen und Untergrundbeschaffenheit einbezogen
werden mussen.
Der verfolgte Ansatz zur Pfadplanung basiert prinzipiell
auf einem Raster. An der Position, an der sich der Rover
befindet wird ein virtuelles Sechseck um den Rover auf-
gespannt. Eine Ecke zeigt dabei immer direkt auf das
raumliche Ziel und jede Ecke stellt einen moglichen Weg-
punkt auf dem Pfad zum Ziel dar. Die Entfernung vom
Roboter zu einer Ecke stellt die Schrittweite dar, diese
wiederum die Distanz der einzelnen Wegpunkte zum Ziel
untereinander. Die einzelnen Ecken werden nach der Ent-
fernung zum Ziel gewichtet und dadurch priorisiert und
nacheinander evaluiert. Kriterien wie Neigung, Hindernisse
und Distanz zu bereits getesteten Wegpunkten bestimmen,
ob eine Ecke angefahren werden kann. Die Daten zur
Evaluierung stammen dabei aus der von der RGBD-Ka-
mera erstellten Karte. Sofern eine gultige Ecke als nachster
Wegpunkt gefunden worden ist, wird von dort erneut ein
Sechseck aufgespannt und der Vorgang beginnt von Neu-
em. Solange bis ein gultiger Pfad zum Ziel gefunden
worden ist.
Bei der Drohne wird eine Startposition festgelegt (0j0).
Mittels der IMU wird die Beschleunigung gemessen und
von der Drohne intern in eine Geschwindigkeit (mm/s)
umgerechnet. Die Geschwindigkeit wird ausgelesen und
zur Berechnung der Position mit der Referenz zum Urs-
prung genutzt (vgl. [11]). Die beiden Kameras der Droh-
ne—Front und Boden—haben keinen direkten Einfluss zur
Bestimmung der Position. Die Bodenkamera wird ver-
wendet, um die Drohne zu stabilisieren und wirkt sich
merkbar auf das Flugverhalten aus. Dies macht sich be-
sonders im Hovering-Modus bemerkbar. Dabei enthalten
sog. Twist-Messages Geschwindigkeitswerte fur die X-, Y-
und Z-Achse sowie einen Wert fur die Wink-
elgeschwindigkeit um die Z-Achse. Die Befehle take-
off,land und emergency werden in jeweils gleichnamige
Topics einer empty ROS message gesendet und verarbeitet.
2.6 Objekterkennung
Die Modell-basierte Objekterkennung verwendet die texture-
Komponente im object recognition-Modul des ROS-Frame-
works; kurz mit TOD bezeichnet. Hierbei werden zur Mo-
dellbildung Objekte auf eine definierte Unterlage gestellt.
Diese Unterlage zeichnet sich dadurch aus, dass sie Fixpunkte
besitzt, aus denen das Paket die x-, y- und z-Positionen be-
rechnen kann. Das jeweilige Objekt kann beliebig in x- und
y-Dimension ausgerichtet werden. Fur jedes so erstellte
120 Kunstl Intell (2014) 28:117–122
123
Objekt werden sog. PointCloud-Bilder erstellt. Anschließend
wird mittels des in ROS verwendeten meshlab-Tools ein 3D-
Modell berechnet. Dieses wird danach in eine Datenbank
(hier: couchdb) eingetragen. Nach den so in der Datenbank
gespeicherten Objekten kann dann gesucht werden. Das heißt,
dass die aktuellen Sensordaten dann mit den gewahlten
Modellen abgeglichen werden (Klassifikation). Zusatzlich
wird in diesem Ansatz die Kombination der TOD-Kompo-
nente mit den Ergebnissen einer Farberkennung (OpenCV)
realisiert. Dadurch verbessert sich die letztendliche
Klassifikationsrate.
Die Lage im Raum des so erkannten Objektes und seine
Position werden dann in die Karte eingetragen. Das er-
moglicht dem Rover sich so zum Objekt zu positionieren,
dass der Manipulator das Objekt greifen kann.
3 Testbed
In der Abb. 2 (links) ist schematisch das eigene Testbed als
Hohenkarte dargestellt. Jedes Quadrat steht fur einen realen
Quadratmeter. Die Codierung durch die Grauwerte sym-
bolisiert die unterschiedlichen Hohen vom Fußboden
ausgesehen. Schwarz bedeutet Fußbodenniveau und Weiß
ca. zwei Meter Hohe. Die Grauwerte dazwischen deuten
Rampen an. Gemaß der Aufgabenbeschreibung wurden
zwei verschiedene Steigungen realisiert. Zum einen eine 15
prozentige und zum anderen eine 30 prozentige Steigung.
Der Rover muss in der Lage sein, beide Steigungen
muhelos zu bewaltigen. Das Testbed hat die Ausdehnung
von 6� 9 Metern.
Die Abb. 2 (rechts) zeigt ein Realbild der Testbed als
Seitenansicht.
4 Erste Testergebnisse
In verschiedenen Testfahrten auf der Testbed wurden die
Fahreigenschaften, die Objekterkennung, das Greifen der
Objekte und die Pfadplanung untersucht. Die Ges-
chwindigkeit des Rovers ist hierbei softwareseitig auf 0; 5 ms
gedrosselt, um ein reproduzierendes und vom Ladestand
der Akkumulatoren unabhangiges Fahrverhalten zu erzeu-
gen. Mit Hilfe der stark profilierten Reifen kann der Rover
auch mit installiertem Greifarm ein Steigungung von 30�
ohne Probleme bewaltigen. Durch den unabhangigen An-
trieb aller vier Rader ist es dem Rover moglich, auf der
Stelle zu drehen (Panzersteuerung) ohne sich zu stark in
den Boden einzugraben. So ist eine maximale Wendigkeit
des Fahrzeugs gegeben, was insbesondere bei engen Pfa-
den notwendig ist. Ferner ist der Rover in der Lage, uber
sehr lockeren weichen Sand zu fahren, Steine bis zu einem
Durchmesser von ca. 20 cm zu uberfahren sowie Graben
zu uberwinden mit Seitenwandsteigungen von ca. 45� und
einer Tiefe von ca. 50 cm.
Zu Beginn einer Exploration steigt die Drohne auf etwa
3 m Hohe auf, um das Terrain maanderformig zu erkun-
den. Hier dreht sich die Drohne nicht, sondern fliegt immer
in gleicher Ausrichtung den vorgegebenen Maander ab.
Wahrend dieses Fluges, der durch die Hauptrecheneinheit
im Rover koordiniert und uberwacht wird, erkennt die
Flugdrohne bzw. die Recheneinheit im Rover farbige Ob-
jekte auf der Oberflache mit Hilfe der Farbkamera. Hierzu
mussen die Farben zuvor kalibriert werden, um eine Ver-
wechselung mit Objekten in der weiteren Umgebung zu
vermeiden. Bei zwanzig kontrolliert durchgefuhrten Sys-
temtests konnte mit einer 95 prozentigen Rate das rote
Objekt gefunden werden, mit einer 85 prozentigen Rate das
blaue Objekt und mit einer 55 prozentigen Rate das gelbe
Objekt zuverlassig lokalisiert werden. Die Herausforderung
bei dem gelben Objekt bestand in der Kontrastierung mit
dem gelblichen Sand, auf dem das Objekt lag.
In der vorhandenen Testbed (s. Abb. 3) wurden wei-
terhin 20 verschiedene Testbedingungen aufgebaut, in der
der Rover navigieren musste. Davon hat er 80 % erfolg-
reich absolviert. Bei der gegebenen Dimension der Testbed
dauerte der komplette Vorgang durchschnittlich 12 Mi-
nuten. Bei den vier nicht erfolgreichen Fahrten konnte
einmal der Pfad nicht berechnet werden, zweimal fuhr der
Rover in eine vermeintliche Sackgasse und einmal wurde
ein Hindernis nicht erkannt.
Abb. 2 Eigenes Testbed—simulierte Hohenkarte (links), Realbild
(rechts) Abb. 3 3D-Datendarstellung der Testbed
Kunstl Intell (2014) 28:117–122 121
123
Weiterhin wurden Untersuchungen durchgefuhrt, um die
Objekterkennung des Rovers im Zusammenspiel mit dem
Greifalgorithmus zu testen. Hierfur wurde das rote Objekt
in unterschiedlichen Entfernungen zum Rover platziert.
Der Rover soll das Objekt erkennen und im dreidimen-
sionalen Raum lokalisieren. Anschließend beginnt die
Berechnung, um sich dem Objekt auf die richtige Entfer-
nung zu nahern, so dass das Objekt in die Reichweite des
Manipulators gelangt. Mit Hilfe der Kamera auf dem
Manipulator erfolgt das Greifen und das sichere Lagern in
den Aufnahmen am Rover. Die Tabelle 1 zeigt die
Ergebnisse.
Von insgesamt 40 Tests fuhrten 28 zum vollstandigen
Erkennen, Greifen und Lagern im Rover. Dies ist eine Rate
von 70 %. Hier gibt es Optimierungspotential in der Ver-
steifung des Manipulators, in der Objekterkennung bzgl.
der dreidimensionalen Lokalisation inklusive Ausrichtung
sowie der Aufnahmen fur die Lagerung der Objekte.
Leider konnten diese experimentellen Ergebnisse wah-
rend des eigentlichen Wettbewerbs nicht bestatigt werden,
was nicht zuletzt den veranderten Umgebungsparametern
geschuldet war.
Danksagung Die Autoren mochten der DLR und dem Bundes-
ministerium fur Wirtschaft und Technologie danken fur die Forderung
und der Moglichkeit an diesem interessanten Wettbewerb teilzuneh-
men. Des Weiteren gilt ein besondere Dank allen beteiligten Studie-
renden der hochschule 21, ohne die das Projekt nicht durchzufuhren
gewesen ware. Besonderer Dank gilt auch den studentischen Teil-
nehmern fur ihren großen Einsatz. Namentlich sind das (in alpha-
betischer Reihenfolge) Fatih Aykun, Andre Dehne, Andre Delventhal,
Mathis Gerken, Christhoph Grefe, Alexander Kammann, Paul Muller,
Pierre Schellner, Frederic Schmehl und Benjamin Schoof.
Literatur
1. Kaupisch T, Nolke D (2013) Aufgabenstellung zum SpaceBot-
Cup des Deutschen Luft- und Raumfahrzentrums. handout
2. Bristeau PJ, Callou F, Vissiere D, Petit N (2011) The navigation
and control technology inside the AR.Drone Micro UAV. In:
Proceedings of the 18th IFAC world congress. Milano, Italy,
pp 1477–1484
3. Stephan J ROS.org: differential\_drive. http://wiki.ros.org/differ
ential_drive (2013). Zuletzt aufgerufen am 16.12.2013
4. Dissanayake G, Durrant-Whyte H, Bailey T (2000) A computa-
tionally efficient solution to the simultaneous localisation and
map building (SLAM) problem. In: Proceedings of the IEEE
international conference on robotics and automation, vol 2,
pp 1009–1014
5. Nuchter A (2009) 3D robotic mapping. Springer, Berlin
6. Kohlbrecher S, Meyer J, Graber T, Petersen K, von Stryk O,
Klingauf U (2013) Hector open source modules for autonomous
mapping and navigation with rescue robots. In: Proceedings of
17th RoboCup international symposium
7. Emter T (2010) Multi-sensor fusion for localization and mapping
for mobile robots. In: Beyerer J, Huber M (eds) Proceedings of
the IV joint workshop of Fraunhofer IOSB and Institute for
Anthropomatics, Vision and Fusion Laboratory, pp 91–106
8. Armbrust C, Braun T, Fohst T, Proetzsch M, Renner M, Schafer
B, (2011) B. K. RAVON—the robust autonomous vehicle for off-
road navigation. In: Baudoin Y, Habib MK (eds) Using robots in
hazardous environments: landmine detection, de-mining and
other applications. CRC Press, Boca Raton
9. Sturzl W (2004) Sensorik und Bildverarbeitung fur Landmarken-
basierte navigation. Ph.D. thesis, Eberhard Karls Universitat
Tubingen
10. Busch S (2006) Autonome Wegplanung mittels lokaler und
globaler Sensorik fur mobile Roboter. Master’s thesis, Universitat
Dortmund-Fachbereich Informatik
11. Tun Latt W, Shee CY, Ang W (2009) Identification of acceler-
ometer orientation Errors and compensation for acceleration
estimation errors. In: Proceedings of the IEEE international
conference on robotics and automation 2009 (ICRA), pp 577–582
Prof. Dr.-Ing. Thorsten Her-mes - Studierte in Hamburg In-
formatik mit dem
Vertiefungsgebiet der digitalen
Bildverarbeitung. 1999 erfolgte
die Promotion zum Thema
Texturen—Analyse, Beschrei-
bung und Synthese an der Uni-
versitat Bremen. Danach nahm
er Aufgaben in der Industrie u.a.
bei der TC Trustcenter GmbH
und bei der Wenzel Elektronik
GmbH wahr. Seit 2012 halt er
den Lehrstuhl fur Technische
Informatik an der hochschule 21
im Studiengang Mechatronik DUAL.
Prof. Dr.-Ing. Thorsten Uel-zen - Studierte und promovierte
an der TU Hamburg-Harburg im
Bereich Elektrotechnik/Mikro-
elektronik und Mikrosystem-
technik. Nach verschiedenen
Stationen in der Industrie u.a.
bei der Robert Bosch GmbH
verantwortlich fur die Entwick-
lung von Seitencrashsensoren
und Entwicklungsleitung bei der
IPB AG leitet er seit 2009 als
Professor fur Elektrotechnik den
Studiengang Mechatronik
DUAL an der hochschule 21 in
Buxtehude.
Tabelle 1 Untersuchung der Erkennungs- und Greifeigenschaften
des Rovers
n Abstand (m) Erkennung Greifen Lagern
10 1 100 % (10) 80 % (8) 100 % (8)
10 2 100 % (10) 90 % (9) 78 % (7)
10 3 90 % (9) 77 % (7) 86 % (6)
10 4 80 % (8) 88 % (7) 100 % (7)
40 92.5 % (37) 83.8 % (31) 90.3% (28)
In Klammern die Absolutwerte
122 Kunstl Intell (2014) 28:117–122
123