16
Anwendungsbezogenes Tracking Proseminar Augmented Reality in der Anwendung Institut f¨ ur Computervisualistik, Universit¨ at Koblenz Prof. Dr. Stefan M¨ uller Dipl.-Inform Martin Schumann Dipl.-Inform Dominik Gr¨ untjens Andreas Weinmann 208 210 107 [email protected] 5. Juni 2011 1

Anwendungsbezogenes Tracking - userpages · PDF file1 Einleitung " Unter Tracking versteht man so etwas wie verfolgen oder genauer: in seiner Position und Orientierung erfassen\ [M

  • Upload
    lamdien

  • View
    214

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Anwendungsbezogenes Tracking - userpages · PDF file1 Einleitung " Unter Tracking versteht man so etwas wie verfolgen oder genauer: in seiner Position und Orientierung erfassen\ [M

Anwendungsbezogenes Tracking

Proseminar Augmented Reality in der Anwendung

Institut fur Computervisualistik, Universitat KoblenzProf. Dr. Stefan Muller

Dipl.-Inform Martin SchumannDipl.-Inform Dominik Gruntjens

Andreas Weinmann

208 210 107

[email protected]

5. Juni 2011

1

Page 2: Anwendungsbezogenes Tracking - userpages · PDF file1 Einleitung " Unter Tracking versteht man so etwas wie verfolgen oder genauer: in seiner Position und Orientierung erfassen\ [M

Inhaltsverzeichnis

1 Einleitung 3

2 Sensorbasiertes Tracking 32.1 GPS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32.2 WLan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52.3 Elektronischer Kompass . . . . . . . . . . . . . . . . . . . . . . . 52.4 Inertialsensoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2.4.1 Beschleunigungsmesser . . . . . . . . . . . . . . . . . . . . 72.4.2 Piezoelektrischer Sensor . . . . . . . . . . . . . . . . . . . 72.4.3 Gyroskop . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

3 Bildbasiertes Tracking 83.1 Markerbasiert Tracking . . . . . . . . . . . . . . . . . . . . . . . 93.2 Markerloses Tracking . . . . . . . . . . . . . . . . . . . . . . . . . 10

3.2.1 Sequentielles Tracking . . . . . . . . . . . . . . . . . . . . 113.2.2 Modellbasiertes Tracking . . . . . . . . . . . . . . . . . . 113.2.3 Rekonstruktive Ansatze . . . . . . . . . . . . . . . . . . . 12

4 Hybrid Tracking Techniken 12

5 Fazit 13

2

Page 3: Anwendungsbezogenes Tracking - userpages · PDF file1 Einleitung " Unter Tracking versteht man so etwas wie verfolgen oder genauer: in seiner Position und Orientierung erfassen\ [M

1 Einleitung

”Unter Tracking versteht man so etwas wie verfolgen oder genauer:

in seiner Position und Orientierung erfassen“ [Mul09a]

Genau dies ist eine der großten Herausforderungen, auf die man im Be-reich Augmented Reality trifft. So ist es nicht verwunderlich, dass Tracking alsdas beliebteste Forschungsthema im Bereich Augmented Reality gilt. [FDB08]Durch die enormen Entwicklungen im Smartphonebereich und der damit ver-bundenen stark gestiegenen Verbreitung dieser Gerate, wird Augmented Realitynun fur jedermann zuganglich. Gerade bei Anwendungen, die auf Smartphonesausgelegt sind, wird man haufig mit dem Problem konfrontiert, die Positionund Orientierung zu bestimmen. Denn gerade dort sind die Moglichkeiten zudieser Bestimmung auf wenige Techniken beschrankt. Die im Innenbereich ver-breiteten Trackingtechniken wie zum Beispiel Mechanisches oder Elektromagne-tisches Tracking sind nicht auf Smartphones einsetzbar, da sie Infrastrukturenbenotigen, die auf kleine Raume beschrankt sind. So beschranken sich die Sen-sorbasieren Techniken auf GPS und WLan zur Positionsbestimmung sowie Iner-tialsensoren und Kompasse zur Unterstutzung und Orientierungsbestimmung.Da Smartphones jedoch in der Regel auch mit einer Kamera ausgestattet sind,ist Bildbasiertes Tracking ebenfalls moglich. Hier unterscheiden sich die Tech-niken zum einen in Markerbasiertes Tracking, bei dem die Bestimmung derPosition und Orientierung mittels speziell markieren Flachen erreicht wird undMarkerlosem Tracking, bei dem auf diese Hilfsmittel verzichtet wird und dieBestimmung nur uber die im Kamerabild gefundenen Merkmale erfolgt. Zieldieser Arbeit ist es, die auf Smartphones moglichen Trackingtechniken vorzu-stellen. Zuerst wird auf die Sensorbasierten Techniken eingegangen, es folgt eineErlauterung der Bildbasierten Techniken. Zuletzt wird auf die Hybridtechnikeneingegangen.

2 Sensorbasiertes Tracking

Unter Sensorbasiertem Tracking versteht man eine Reihe von Techniken zurBestimmung von Position und Orientierung auf Basis von Sensoren. Unterteiltwerden die Techniken meistens in Grobtracking, zu dem GPS und WLan zahlensowie Feintracking Techniken wie Elektromagnetisches, Mechanisches, Akusti-sches und Infrarot Tracking sowie Kompass und Inertialsensoren. Im Folgendenwerden diese Techniken vorgestellt, dabei beschrankt sich die Auswahl auf Sen-soren, die auf Smartphones Anwendung finden.

2.1 GPS

Das Global Positioning System wurde 1973 vom US-Verteidigungsministeriumentwickelt und verbreitet sich seither in immer weitere Lebensbereiche. So kommtes, dass heutzutage nahezu jedes moderne Smartphone einen GPS Empfanger

3

Page 4: Anwendungsbezogenes Tracking - userpages · PDF file1 Einleitung " Unter Tracking versteht man so etwas wie verfolgen oder genauer: in seiner Position und Orientierung erfassen\ [M

integriert hat. Im Folgenden wird auf die Funktionsweise und den daraus fol-genden Nutzen fur das Tracking eingegangen.GPS ist ein satellitengestutztes Navigations- und Positionsbestimmungssystem,dessen 31 Satelliten die Erde zweimal taglich umkreisen. Die Satelliten sind in ei-ner 24-Slot Anordnung (Abb. 1) verteilt, sodass sichergestellt wird, dass zu jederZeit an jedem Ort immer mindestens vier Satelliten sichtbar sind [NCOfSBPT].

Abbildung 1: 24-Slot Satelliten Anordnung

Die Satelliten senden in festen Abstanden Zeitsignale sowie ihre Positionaus, diese werden von den GPS Empfangern analysiert und die Laufzeit dieserSignale dient als Basis fur die Trilateration. Hiermit wird eine Genauigkeit vonetwa zehn Meter erreicht. Fur eine Trilateration waren zwar nur drei Satellitennotig, allerdings gibt es hierbei auch ein Problem, den Zeitdrift. Dieser kommtzustande, da die Satelliten mit extrem genauen Atomuhren ausgestattet sind,die Empfanger jedoch meist nur mit gunstigen Quarzuhren. Durch diese Unge-nauigkeit in der Zeitbestimmung kommt es zu einem Drift. Dieser Drift ist einezusatzliche, vierte, unbekannte Variable in der Positionsbestimmungsgleichung,somit werden vier Laufzeitmessungen benotigt, was wiederum bedeutet, dassvier Satelliten im Sichtfeld sein mussen. Eine Verbesserung der Genauigkeit istmithilfe von Differential GPS moglich. Dieses System erkennt Storungen desSignals durch die Atmosphare, indem Referenzstationen am Boden das Signalauswerten und den Storungswert uber UKW oder GSM/UMTS ubermitteln.Dadurch steigt die Genauigkeit auf 1-5 Meter. In Krisenregionen wird das GPSSignal oftmals kunstlich gestort, sodass nur das US-Militar es dort effektiv ver-wenden kann.Moderne Smartphones sind nahezu ausnahmslos mit einem GPS Empfangerausgestattet. Unterstutzt wird die Positionsbestimmung auf Smartphones durch

4

Page 5: Anwendungsbezogenes Tracking - userpages · PDF file1 Einleitung " Unter Tracking versteht man so etwas wie verfolgen oder genauer: in seiner Position und Orientierung erfassen\ [M

das sogenannte A-GPS (Assisted Global Positioning System), welches zur initia-len Positionsbestimmung benutzt wird. Diese Technik bestimmt die ungefahrePosition mithilfe einer Trilateration von mindestens drei Sendemasten des Han-dynetzes und ermoglicht somit eine schnellere Positionsbestimmung. GPS bietetein solides Tracking der Position und findet somit in nahezu allen Outdoor An-wendungen Einsatz. Indoor kann auf Smartphones eine sehr grobe Positionsbe-stimmung via A-GPS erfolgen, diese ist jedoch sehr ungenau und eignet sich nurselten fur Augmented Reality. GPS bietet keine Moglichkeit zur Bestimmung derOrientierung. Der wohl großte Nachteil von GPS ist die Beschrankung auf Ortemit freier Sicht zu den Satelliten [But09].

2.2 WLan

Aufgrund der zunehmenden Verbreitung und den immer gunstigeren Preisen vonWLan Sendern und Empfangern gewinnt das Tracking uber diese immer wei-ter an Bedeutung. Beim WLan Tracking werden Signalstarke und Signallaufzeitzwischen den Accespoints und dem Empfanger in die jeweilige Entfernung um-gerechnet und somit die Position bestimmt (Abb. 2). Ahnlich wie beim GPSbenotigt man mindestens drei Accespoints fur eine zweidimensionale Ortungmittels Trilateration. Ab vier Accespoints ist sogar eine dreidimensionale Posi-tionsbestimmung moglich. Hierbei wird eine Genauigkeit von wenigen Meternerreicht. Allerdings muss eine Karte mit den Positionen der Accespoints vorhan-den sein, um die Positionsbestimmung durchzufuhren. Somit muss das Gebaudezuerst kartographiert werden, bevor eine Ortung moglich ist. Das Bestimmender Orientierung ist beim WLan Tracking technisch nicht moglich. Die wesentli-chen Vorteile des WLan Trackings sind zum einen die Anwendbarkeit innerhalbvon Gebauden sowie die gunstige, bzw. in vielen Bereichen bereits vorhande-ne Hardware, denn dort ist WLan Tracking ohne großen Aufwand anwendbar[IHS04] .

2.3 Elektronischer Kompass

Der Elektronische Kompass besteht aus Sensoren, die auf das Magnetfeld derErde reagieren. Da das Magnetfeld uberall in der gleichen Richtung verlauft,lasst sich dadurch eine horizontale Orientationsbestimmung durchfuhren. Ei-ne vertikale Orientierungsbestimmung ist mit einem Kompass allerdings nichtmoglich. Elektronische Kompasse sind im Gegensatz zu herkommlichen Kom-passen schock- und vibrationsresistent. Wie auch bei herkommlichen Kompassentreten bei elektrischen Kompassen Storungen in der Nahe von eisenhaltigen Me-tallen auf und es kommt somit zu einer fehlerhaften Orientationsbestimmung[Lee11]. Elektronische Kompasse werden gerne unterstutzend eingesetzt, da sieautonom arbeiten und weltweit funktionieren.

5

Page 6: Anwendungsbezogenes Tracking - userpages · PDF file1 Einleitung " Unter Tracking versteht man so etwas wie verfolgen oder genauer: in seiner Position und Orientierung erfassen\ [M

Abbildung 2: Magic Map

2.4 Inertialsensoren

Es gibt mehrere verschiedene Arten von Inertialsensoren jedoch arbeiten alleauf dem gleichen Prinzip, der Tragheit der Masse. Denn nach dem 1. Newton-sches Axiom verharrt ein Korper solange in Ruhe oder geradlinig gleichformigerBewegung, solange keine außere Kraft auf ihn einwirkt. Die trage Masse einesKorpers gibt dabei an, wie stark der Korper von einwirkenden Kraften in sei-ner Bewegung beeinflusst wird [Lei96]. Ist also die trage Masse und die auf denKorper einwirkende Kraft bekannt, kann man damit die auf den Korper ge-wirkte Beschleunigung berechnen und somit die neue Position bestimmen. DaInertialsensoren autonom und somit unabhangig von Infrastrukturen sind undzudem sehr klein gebaut werden konnen, sind sie gerade im Smartphone- Be-reich besonders interessant. Allerdings bieten sie nur eine relative Messung zumvorherigen Zeitpunkt. Dies fuhrt zu einem weiteren Problem, dem Drift. Dadie Position mithilfe einer zweifachen Integration der Beschleunigung bestimmtwird, akkumulieren sich Fehler aufgrund der relativen Messung quadratisch auf.Somit wird ein Stutzsystem benotigen, das zum einen die initiale Startpositi-on bestimmt, sowie den Drift korrigiert [Mul09a]. Im Folgenden werden die amweitesten verbreiteten Sensoren vorgestellt. Da die Sensoren alle auf dem glei-chen Prinzip basieren, unterscheiden sie sich lediglich im Aufbau und in derMesstechnik.

6

Page 7: Anwendungsbezogenes Tracking - userpages · PDF file1 Einleitung " Unter Tracking versteht man so etwas wie verfolgen oder genauer: in seiner Position und Orientierung erfassen\ [M

Abbildung 3: Beschleunigungsmesser

2.4.1 Beschleunigungsmesser

Beim Beschleunigungsmesser wird eine Feder mit einem daran befestigten Mas-sekorper verwendet, um die durch Bewegung verursachte Kraft zu messen. MitHilfe eines Potentiometers wird die Stauchung bzw. Streckung der Feder ge-messen und mittels zweifacher Integration wird daraus die Positionsanderungbestimmt (Abb. 3). Dieses Verfahren ist sehr gunstig und kompakt realisierbar,jedoch bietet der Sensor nur einen Freiheitsgrad. Es sind also drei dieser Sensorenfur die 3D-Positionsbestimmung notwendig [But09]. Mit Hilfe der Gravitationist es sogar moglich, die Orientierung zu bestimmen [Miz03].

2.4.2 Piezoelektrischer Sensor

Der Piezoelektrische Sensor besteht aus Piezoelementen und Gewichten. DiePiezoelemente erzeugen beim Einwirken von Kraften, welche durch die Tragheitder Gewichte bei einer Bewegung ausgelost werden, eine elektrische Ladung(Abb. 4). Diese Ladung wird mithilfe von Elektroden erfasst. Da die Ladungproportional zu den einwirkenden Krafte ist, kann daraus die Kraft und somitdie Beschleunigung, welche fur die Positionsbestimmung notig ist, bestimmtwerden [GG06].

Abbildung 4: Piezoelektrischer Sensor

2.4.3 Gyroskop

Beim Gyroskop wird die Winkelgeschwindigkeit gemessen, je nach Konstrukti-on (Abb. 5) ist es hierbei moglich bis zu drei Freiheitsgrad mit einem Sensorzu messen. Die Scheibe im inneren dieser Konstruktion dreht sich mit schnellerGeschwindigkeit und behalt seine Richtung bei, auch wenn sich das Gyroskop

7

Page 8: Anwendungsbezogenes Tracking - userpages · PDF file1 Einleitung " Unter Tracking versteht man so etwas wie verfolgen oder genauer: in seiner Position und Orientierung erfassen\ [M

bewegt. Dies wird sich zu Nutze gemacht, um die Winkelgeschwindigkeit zumessen und ermoglicht so die Berechnung der absoluten Orientierung. Es gibtnoch weitere Gyroskoparten wie beispielsweise das Lasergyroskop, bei dem dieDrehbewegung des Gyroskops eine Phasenverschiebung im Lichtstrahl auslost.Eine weitere Konstruktion ist das Vibrationsgyroskop, das aus vibrierenden Pie-zoteilen besteht, welche bei der Drehung eine Kollisionskraft erfahren [But09].

Abbildung 5: Gyroskop

3 Bildbasiertes Tracking

Mithilfe der Kamera ist eine weitere Trackingtechnik gegeben, das BildbasierteTracking. Hier unterscheiden sich zwei Verfahren, das Inside-out, bei dem dieKamera beweglich ist und die Bestimmung der Position und Orientierung somitaus Benutzerperspektive ausgefuhrt wird. Sowie das Outside-In Verfahren beidem die Kamera fest stationiert ist und die Pose des Benutzers relativ zur Kame-ra berechnet wird. Auf Smartphones ist allerdings nur das Inside-out Trackinginteressant. Bei diesem Verfahren wird das Kamerabild auf Merkmale analysiert,um mit Hilfe dieser die Position und Orientierung zu berechnen. Unterteilt wirddiese Technik in zwei Hauptgruppen. Zum einen das Markerbasiertes Tracking,bei dem diese Merkmale kunstlich in der Umgebung platziert sind, sogenannteMarker. Da es jedoch in vielen Bereichen nicht moglich beziehungsweise nichterwunscht ist, dass Marker angebracht werden, steigt der Wunsch nach demsogenannten Markerlosem Tracking. Bei dieser Technik erfolgt die Bestimmungder Position und Orientierung aus den im Kamerabild gefundenen naturlichenMerkmalen, wie zum Beispiel Kanten oder Ecken (Abb. 6).

8

Page 9: Anwendungsbezogenes Tracking - userpages · PDF file1 Einleitung " Unter Tracking versteht man so etwas wie verfolgen oder genauer: in seiner Position und Orientierung erfassen\ [M

Abbildung 6: Naturlichen Merkmale

Abbildung 7: Modellbasierten Tracking

3.1 Markerbasiert Tracking

Beim Markerbasierten Tracking werden Marker (Abb. 8) in der Umgebung an-gebracht. Diese Marker mussen von der Software eingelesen werden, danachkonnen sie erkannt und zugeordnet werden. Im Trackingverlauf wird das Kame-rabild analysiert und auf Ahnlichkeiten zu diesen Markern untersucht. Sobaldein Marker gefunden wurde, kann daraus die Kamerapose berechnet werden.

9

Page 10: Anwendungsbezogenes Tracking - userpages · PDF file1 Einleitung " Unter Tracking versteht man so etwas wie verfolgen oder genauer: in seiner Position und Orientierung erfassen\ [M

””Tracking“ wird hier eher im Sinne von

”finden“ als von

”verfolgen“

verwendet“ [Mul09b]

Bei dem weit verbreiteten Open-Source Tool ARToolKit wird das Kamerabildzuerst binarisiert, gefolgt von einem Labelingvorgang der Regionen detektiert.In diesen Regionen werden Konturen gesucht und daraus Vierecke bestimmt.Die Eckpunkte dieser Vierecke werden dann zur Posen Berechnung verwendet.Andere Programme wie zum Beispiel ARtag funktionieren relativ ahnlich. Ist einMarker einmal gefunden, wird versucht, diesen zu verfolgen. Dies ermoglicht ei-ne effizientere Marker Identifizierung, da der Suchbereich eingeschrankt werdenkann. Markerbasiertes Tracking bietet somit eine einfache Methode zur Bestim-mung der Kamerapose sowie die Identifizierung eines Objekts. Der technologi-sche Aufwand ist ebenfalls sehr begrenzt, da die Marker zum Beispiel einfachausgedruckt werden konnen und auch keine Kabel oder ahnliches benotigt wer-den. Dies macht das System zu einem relativ gunstigen und meist sehr prazisenTrackingverfahren. Allerdings sind die Marker auf fur unbeteiligte Personensichtbar, was oftmals nicht erwunscht ist. Auch Verdeckungen fuhren zu schlech-ten Trackingergebnissen [Mul09b].

Abbildung 8: Marker

3.2 Markerloses Tracking

Mit dem Wunsch nach einem Kameratracking, das ohne jegliche Veranderungder Umgebung auskommt, steigt die Nachfrage nach Markerlosem OptischenInside-Out Tracking. In diesem Bereich haben sich zwei generelle Methoden her-ausgebildet: Das Sequentielle und das Modellbasierte Tracking [SAM09]. DerTrackingablauf beider Verfahren ist relativ ahnlich. Beide Verfahren arbeitenauf Bildmerkmalen. Als Merkmal bezeichnet man hierbei auffallige Elementeeines Bildes mithilfe derer Gemeinsamkeiten zwischen Bildern erkannt werdenkonnen. Ziel dieser Merkmalerkennung ist es, moglichst robuste, leicht auffind-bare und eindeutige Elemente zu finden. Beispiele fur solche Merkmale sindPunkte und Linien. Ein Punktmerkmal ist das einfachste Merkmal in einemBild und somit auch leicht zu finden, da sich Punktmerkmale durch Transfor-mation nicht verandern. Allerdings lassen sich Punktmerkmale oft nicht ein-deutig zuordnen da in einem Bild meisten sehr viele Punktmerkmale erkanntwerden. So beschrankt man sich auf sogenannte

”Point of Interest“ die sich aus

ihrer Umgebung besonders hervorheben. Eine Linie wird meistens als Grenzezwischen zwei Regionen aufgefasst und kann somit Mathematisch mithilfe der

10

Page 11: Anwendungsbezogenes Tracking - userpages · PDF file1 Einleitung " Unter Tracking versteht man so etwas wie verfolgen oder genauer: in seiner Position und Orientierung erfassen\ [M

Ableitung gefunden werden. Die erste Ableitung hat eine Maximalstelle an derLinie und die zweite Ableitung eine Nullstelle. Als Operatoren hierfur werdenzum Beispiel Sobel oder Laplace verwendet [SHB07]. Ein weiteres Verfahren zurDetektion von Linien ist die Hough-Transformation. Die erkannten Linien undPunkte werden dann zur Bestimmung der Pose benutzt. Wichtig ist hierbei dassdie erkannten Merkmale in den Folgebildern wieder gefunden werden. So werdenMerkmale durch sogenannte Deskriptoren beschrieben, die zur Korrespondenz-findung verwendet werden. Abhangig von dem Merkmal und dem Deskriptorwerden unterschiedliche Eigenschaften, wie zum Beispiel Grauwertverteilung,Gradientenstarke und Gradientenrichtung, gespeichert. Je eindeutiger ein Merk-mal definiert ist umso genauer ist die Korrespondenzfindung [Pri11]. Wichtig isthierbei auch das sogenannte Machting, da durch die Kamerabewegung die Blick-richtung geandert wird und somit die Merkmale aus einer anderen Perspektivebetrachtet werden. Diese Veranderung wir mithilfe der Matching-Verfahren aus-geglichen [Wed95].

3.2.1 Sequentielles Tracking

Bei diesem Verfahren, das auch als”Frame-to-Frame-Tracking“ oder

”Struc-

ture from Motion Tracking“ bezeichnet wird, wird die Kamerapose aus denVeranderungen von Merkmalen in den aufeinanderfolgenden Kamerabildern be-stimmt. Diese relative Positionsbestimmung benotigt keinerlei Informationenuber die Umgebung. Die Merkmale werden mittels Bildverarbeitungsmethodenaus dem Bild extrahiert. Beliebte Merkmale hierfur sind Punkte, Ecken oderLinien. Da die Berechnung der Pose immer auf der vorherigen beruht, sum-mieren sich Fehler stetig auf, dieser sogenannter Drift muss zum Beispiel durchReferenzbilder ausgeglichen werden. Auch Licht und Schatten spielen eine großeRolle, denn durch Anderung des Lichtverhaltnisses konnen Merkmale, die zu-vor detektiert wurden, im Schatten verschwinden [SAM09]. Die Bestimmung derStartpose ist aufgrund der fehlenden Information uber die Umgebung besonderskompliziert und nur dann moglich, wenn Referenzpunkte bekannt sind.

3.2.2 Modellbasiertes Tracking

Modellbasiertes Tracking kann mit dem Verfahren der”Analyse durch Synthese“

realisiert werden. Hierbei wird versucht, ein virtuelles Bild dem Kamerabild an-zunahern und daraus die Position und Orientierung der Kamera zu bestimmen.Die einzige Voraussetzung hierfur ist ein 3D-Modell der Umgebung, was heut-zutage allerdings kein großes Problem darstellt, denn es ist relativ leicht undmit geringem Aufwand moglich, qualitativ hochwertige 3D-Modelle zu erstellen.Auch sind von vielen Regionen bereits Modelle vorhanden und die Verfugbarkeitvon hochwertigen 3D-Modellen wird in der Zukunft weiter steigen.

”It is also conceivable that in the near future 3D models of whole

cities and particular touristical attractive buildings will be available“[SAM09]

11

Page 12: Anwendungsbezogenes Tracking - userpages · PDF file1 Einleitung " Unter Tracking versteht man so etwas wie verfolgen oder genauer: in seiner Position und Orientierung erfassen\ [M

Um die Position und Orientierung zu bestimmen, wird zuerst die initialeStartposition benotigt, dies kann beispielsweise per GPS erfolgen. Im weiterenVerlauf wird die Startposition aus dem vorherigen Bild entnommen. Ausgehenvon dieser Pose wird das 3D-Modell gerendert und mit dem Kamerabild ver-glichen und damit die aktuelle Pose bestimmt. Beim Modellbasierten Trackingerhalt man somit die absolute Position und nicht nur die relative wie beim Se-quentiellen Tracking. Das hat den Vorteil, dass hier kein Drift auftreten kann.Allerdings konnen bewegliche Objekte wie zum Beispiel Autos, Fußganger oderJalousien die Bestimmung negativ beeinflussen. Zur Bestimmung der Pose wer-den Kamera und Synthetisches Bild auf korrespondierende Merkmale wie zumBeispiel Ecken oder Kanten untersucht und daraus die Position und Orientie-rung bestimmt [SAM09].

3.2.3 Rekonstruktive Ansatze

Sind keine Informationen uber die Umgebung oder Referenzbilder vorhanden,gibt es die sogenannte SLAM(Simultaneous localization and mapping) Tech-nik. Dieses Verfahren findet bisher hauptsachlich bei Robotern oder autono-men Fahrzeugen, die in einer unbekannten Umgebung manovrieren, Anwendung.Fur Augmented Reality auf mobilen Geraten wird diese Technik, dank der im-mer weiter steigenden Leistung dieser Gerate sowie der Weiterentwicklungen imSLAM Bereich, immer interessanter. Ziel des SLAM Verfahren ist die gleichzei-tige Erstellung einer Karte sowie das Bestimmen der Position in dieser Karte.Dies wird oft mit dem Henne-Ei-Problem verglichen, denn zum Erstellen einerKarte aus den Kamerainformationen ist die exakte Position der Kamera notigund zum Bestimmen dieser Position mithilfe der Kamera braucht man eine Kar-te der Umgebung. Die zwei Hauptansatze zum Losen dieses Problems sind Kal-man Filtering [DPC+01] und Particle Filtering [MTRW03] [Hog]. Heutzutage istSLAM schon mit einer einzelnen Kamera moglich. Das sogenannt monoSLAM(monocular SLAM) ermoglicht es mit Hilfe der Kamera, eine Karte (Abb. 9) voneiner unbekannten Umgebung zu erstellen ohne jegliches Vorwissen uber diese.Zuerst wird mit einer Stereotechnik eine initiale Karte erstellt, die dann stetigerweitert wird. So entsteht eine immer genauere Karte der Umgebung. Mithil-fe dieser Karte wird die Kamerabewegung verfolgt. Virtuelle Objekte konnensomit korrekt in die Umgebung eingeblendet werden (Abb. 10) [KM07].

4 Hybrid Tracking Techniken

Wie zuvor schon aufgezeigt, haben alle Trackingtechniken Schwachen bezie-hungsweise Einschrankungen. So geht der Trend zur Fusion verschiedener Tech-niken, denn gerade im Smartphone Sektor lasst sich Bildbasiertes Tracking sehrgut mit den Inertialsensoren kombinieren, um zum Beispiel bei schnellen Ka-meraschwenks die Orientierung zu bestimmen, da dort die Bewegungsunscharfeeine bildbasierte Bestimmung erschwert. Dies fuhrt zu einer deutlich besserenQualitat des Trackings.

12

Page 13: Anwendungsbezogenes Tracking - userpages · PDF file1 Einleitung " Unter Tracking versteht man so etwas wie verfolgen oder genauer: in seiner Position und Orientierung erfassen\ [M

Abbildung 9: SLAM Map Abbildung 10: Virtuelle Objekte

Man unterteilt die Kombinationen hierbei in drei Kategorien: komplementare,im Wettbewerb stehende und kooperative Hybrid Tracking Techniken. Bei Kom-plementaren Hybridtechniken sind alle Einzeltechniken unabhangig voneinan-der. Ein Beispiel hierfur ist die Kombination von GPS und einem ElektronischenKompass. Diese Fusion liefert die Position und die horizontale Orientierung. BeiKomplementaren Techniken wird also auf eine Erweiterung des Funktionsum-fangs durch Kombination verschiedener Techniken Wert gelegt. Dem gegenuberstehen die Hybridverfahren, bei denen die Sensoren im Wettbewerb zueinan-der stehen. Hier bestimmen mehrere Sensoren die gleichen Beziehungen, alsozum Beispiel die Position. Ziel dieser Systeme ist es, Fehler zu minimieren. EineBeispielkombination hierfur sind Inertialsensoren mit Ultraschallstutzung. Dasich bei Inertialsensoren der Drift akkumuliert, wird das Ultraschallsystem zurEliminierung des Drifts benutzt. Die Positionsbestimmung wird somit durchdiese Kombination genauer. Die dritte Kategorie beinhaltet Hybridsysteme, beidenen die Sensoren kooperativ arbeiten. Dies bedeutet, dass sich die Sensorengegenseitig mit Informationen versorgen, wie zum Beispiel der Stabilisierungvon optischem Tracking durch ein Gyroskop [But09].

5 Fazit

Nachdem wir nun einige Trackingtechniken kennengelernt haben und sich her-ausgestellt hat, dass alle Verfahren gewisse Schwachen haben, zeigt sich, dass ei-ne Kombination verschiedener Techniken notig ist, um ein genaues, zuverlassigesund ortsunabhangiges Tracking zu ermoglichen. Bei Smartphones sticht hierbesonders das Markerlose Inside-Out Tracking kombiniert mit Inertialsensorenhervor, denn die notige Hardware ist in modernen Smartphones bereits inte-griert. Da die zwei Verfahren im Wettbewerb zueinander stehen, fuhrt die Kom-bination zu genaueren Ergebnissen. Zusatzlich kann auf Smartphones auch nochGPS zur Unterstutzung hinzugezogen werden, allerdings beschrankt sich dieseMoglichkeit auf Außenbereiche.

13

Page 14: Anwendungsbezogenes Tracking - userpages · PDF file1 Einleitung " Unter Tracking versteht man so etwas wie verfolgen oder genauer: in seiner Position und Orientierung erfassen\ [M

Literatur

[But09] Andreas Butz. Tracking, teil 2: Methoden und syste-me. http://www.medien.ifi.lmu.de/lehre/ss09/ar/

AR-S09-02-Tracking.pdf, 2009. Stand 09.05.2011. 5, 7,8, 13

[DPC+01] M.W.M.G. Dissanayake, P.Newman, S. Clark, H.F. Durrant-Whyte, and M. Csorba. A solution to the simultaneous locali-sation and map building (slam) problem. In Robotics and Auto-mation, IEEE Transactions on. IEEE Robotics and AutomationSociety, 2001. 12

[FDB08] Zhou Feng, Henry Been-Lirn Duh, and Mark Billinghurst. Trendsin augmented reality tracking, interaction and display: A reviewof ten years of ismar. In Proceedings of the 7th IEEE/ACM In-ternational Symposium on Mixed and Augmented Reality, pages193–202. IEEE Computer Society, 2008. 3

[GG06] Hans-Jurgen Gevatter and Ulrich Grunhaupt. Handbuch derMess- und Automatisierungstechnik in der Produktion, pages 135–136. Springer, 2006. 7

[Hog] Andrew Hogue. Simultaneous localization and mapping - slam.http://www.cse.yorku.ca/~hogue/qual_slides.pdf. Stand11.05.2011. 12

[IHS04] Peter Ibach, Tobias Hubner, and Martin Schweigert. Magicmap- kooperative positionsbestimmung uber wlan. 21st Chaos Com-munication Congress, 2004. 5

[KM07] Georg Klein and David Murray. Parallel tracking and mappingfor small ar workspaces. In Proceedings of the 2007 6th IEEE andACM International Symposium on Mixed and Augmented Reality.IEEE Computer Society, 2007. 12

[Lee11] Jian Lee. Advanced Electrical and Electronics Engineering, Band2, pages 121–122. Springer, 2011. 5

[Lei96] Hans Jorg Leisi. Klassische Physik: Band 1: Mechanik, pages 8–9.Birkhauser, 1996. 6

[Miz03] David Mizell. Using gravity to estimate accelerometer orientati-on. In Proceedings of the 7th IEEE International Symposium onWearable Computers. IEEE Computer Society, 2003. 7

[Mul09a] Stefan Muller. Vorlesungsunterlagen ARVR, (3) Tracking.http://userpages.uni-koblenz.de/~cg/ws0910/VRAR/vrar_

ws0910.zip, 2009. Stand 09.05.2011. 3, 6

14

Page 15: Anwendungsbezogenes Tracking - userpages · PDF file1 Einleitung " Unter Tracking versteht man so etwas wie verfolgen oder genauer: in seiner Position und Orientierung erfassen\ [M

[Mul09b] Stefan Muller. Vorlesungsunterlagen ARVR, (7) KameraTracking. http://userpages.uni-koblenz.de/~cg/ws0910/

VRAR/vrar_ws0910.zip, 2009. Stand 09.05.2011. 10

[MT07] Michael Montemerlo and Sebastian Thrun. FastSLAM A ScalableMethod for the Simultaneous Localization and Mapping Problemin Robotics, page 1. Springer, 2007.

[MTRW03] Michael Montemerlo, Sebastian Thrun, Daphne Roller, and BenWegbreit. Fastslam 2.0: an improved particle filtering algorithmfor simultaneous localization and mapping that provably conver-ges. In Proceedings of the 18th international joint conference onArtificial intelligence, pages 1151–1156. Morgan Kaufmann Pu-blishers Inc., 2003. 12

[NCOfSBPT] Navigation National Coordination Office for Space-Based Positio-ning and Civil GPS Service Interface Committee Timing. Spacesegment. http://www.gps.gov/systems/gps/space/. Stand09.05.2011. 4

[Pri11] Lutz Priese. Skript zur Vorlesung Bildverarbeitung1 Verarbeitung und Analyse digitaler Bilder. https:

//www.uni-koblenz.de/lb/lb_downloads/bv0910/script/

BV1Skriptfreigegeben.pdf, 2011. Stand 03.06.2011. 11

[SAM09] Martin Schumann, Sabine Achilles, and Stefan Muller. Analy-sis by synthesis techniques for markerless tracking. In Virtuelleund Erweiterte Realitat. 6. Workshop der GI Fachgruppe VR/AR,Braunschweig, 2009. 10, 11, 12

[SHB07] Milan Sonka, Vaclav Hlavac, and Roger Boyle. Image Processing,Analysis, and Machine Vision. Thomson-Engineering, 2007. 11

[Wed95] Katrin Wedekind. Analyse, Implementierung und Evaluationvon Matchingverfahren in der medizinischen Bildverarbeitung.http://www.dkfz.de/de/mbi/pub/pdf/tr79.pdf, 1995. Stand03.06.2011. 11

Abbildungsverzeichnis

1 24-Slot Satelliten AnordnungQuelle: http://www.gps.gov/systems/gps/space/constellation.jpgStand: 09.05.2011 . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2 Magic MapQuelle: http://events.ccc.de/congress/2004/fahrplan/files/48-ad-hoc-collaboration-paper.pdfStand: 09.05.2011 . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

15

Page 16: Anwendungsbezogenes Tracking - userpages · PDF file1 Einleitung " Unter Tracking versteht man so etwas wie verfolgen oder genauer: in seiner Position und Orientierung erfassen\ [M

3 BeschleunigungsmesserQuelle: http://www.medien.ifi.lmu.de/lehre/ss09/ar/AR-S09-02-Tracking.pdfStand: 09.05.2011 . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

4 Piezoelektrischer SensorQuelle: http://www.medien.ifi.lmu.de/lehre/ss09/ar/AR-S09-02-Tracking.pdfStand: 09.05.2011 . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

5 GyroskopQuelle: http://3.bp.blogspot.com/ soYQ3ZXmgrQ/TRBoVzZBUsI/AAAAAAAACCA/TVsYixBG Uw/s1600/3D Gyroscope.pngStand: 09.05.2011 . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

6 Naturlichen MerkmaleQuelle: http://userpages.uni-koblenz.de/ cg/ws0910/VRAR/vrar ws0910.zip 07 kamera tracking.pdfStand 11.05.2011 . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

7 Modellbasierten TrackingQuelle: http://userpages.uni-koblenz.de/cg/ws0910/VRAR/vrar ws0910.zip 07 kamera tracking.pdfStand 11.05.2011 . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

8 MarkerQuelle: http://www.theaugmentedreality.de/Bilder/Anwendung/augmentedrealitymarker.pngStand 11.05.2011 . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

9 SLAM MapQuelle: http://www.robots.ox.ac.uk/ActiveVision/Publications/klein murray ismar2007/klein murray ismar2007.pdfStand 11.05.2011 . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

10 Virtuelle ObjekteQuelle: http://www.robots.ox.ac.uk/ActiveVision/Publications/klein murray ismar2007/klein murray ismar2007.pdfStand 11.05.2011 . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

16