34
1 Inhalt Sensorentwicklung Sensorinformationsverarbeitung Systemintegration Zentrum für Sensorsysteme Universität Siegen

Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

1

Inhalt

Sensorentwicklung Sensorinformationsverarbeitung

Systemintegration

Zentrum für Sensorsysteme

Universität Siegen

Page 2: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

2 3

Liebe Leserin, lieber Leser,

Multidimensionale Sensorik und Bildgebende Systeme (Multi Sensorics) zählen nicht ohne Grund zu den zukunftsträchtigsten Gebieten der technologischen und wissenschaftlichen Entwicklung überhaupt. Beide Begriffe sind eng verknüpft mit dem Streben nach Informationsgewinn, wissenschaftlichem Erkenntnisfortschritt oder ganz einfach der Erfassung kritischer Kenn- oder Messgrößen zur Steuerung, Regelung oder Kontrolle von technischen, ökonomischen oder ökologischen Systemen. Zur Gewinnung der benötigten Information wird in der Regel eine große Anzahl von Sensoren eingesetzt, die räumlich verteilt in unterschiedlichen Zeitskalen Messwerte eines komplexen Systemzustandes gewinnen.

Ein solches Multi-Sensorsystem kann sich aus vielen Sensoren der gleichen Art zusammensetzen, aber auch aus Sensoren mit verschiedenen physikalischen Funktionsprinzipien. Die verwendeten Sensoren weisen unterschiedliche Genauigkeiten auf und liefern unterschiedlich aufgelöste, i.a. fehlerüberlagerte Messwerte, die zudem die gesuchte Information in einer nicht direkt beobachtbaren Form enthalten können. Der Verarbeitung als Schlüsselschritt der Informationsgewinnung kommt hier eine zentrale Rolle zu.

Optische Technologien spielen in solchen Systemen eine immer wichtiger werdende Rolle. Dies gilt für weite Bereiche der industriellen Fertigungstechnik und Prozesskontrolle ebenso, wie in den bedeutsamer werdenden Bereichen der Fahrzeug-, Sicherheits- und Gebäudetechnik. Die technologischen Fortschritte auf dem Gebiet der Optoelektronik/Photonik in Verbindung mit der Informationserfassung mit nichtoptischen Wellenlängen (Mikrowellen, Röntgenstrahlung, Gammaquanten) ermöglichen darüber hinaus Sensorsysteme, die multispektral und damit in makro- bis mikroskopischen Maßstäben Information erfassen. Die nicht zerstörende Werkstückkontrolle mit Hilfe von durchdringender Strahlung oder tomographische Verfahren in der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en Ergebnisse erzielt wurden, deren Wert völlig außer Frage steht. In der Fernerkundung (Remote Sensing) spielen neben optisch erfassenden System gerade mikrowellenbasierte, bildgebende Verfahren, wie Synthetic Aperture Radar Systeme (SAR) eine herausragende Rolle, die nicht erst durch aktuelle Umweltkatastrophen eine Bedeutung gewonnen haben, die vor wenigen Jahren kaum absehbar schien.

Das Zentrum für Sensorsysteme ist auf allen beschriebenen Gebieten aktiv, wobei sich aus dem Anspruch unbedingter wissenschaftlicher Exzellenz der Forschung mit der Forderung nach anwendungsnaher Umsetzbarkeit wertvolle Synergien für den gesamten Forschungsschwerpunkt sowie das auf diesem Gebiet angesiedelte International Postgraduate Programme Multi Sensorics ergeben.

Mit dieser Broschüre wollen wir Ihnen einen Überblick über unsere Struktur, Forschungsinhalte und -ergebnisse sowie Visionen geben.

Siegen, März 2006

Prof. Dr.-Ing habil. Otmar LoffeldVorsitzender des ZESS

Prof. Dr.-Ing. Hubert Rothstellv. Vorsitzender des ZESS

Vorwort

Page 3: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

4 5

Sensorentwicklung, Sensorinformationsverarbeitung, Systemintegration

Kooperationsvorhaben: Bistatic Exploration ........................................................................................................................................ 14 Kooperationsvorhaben: Dynamisches 3D Sehen mit PMD .................................................................................................................. 16

Remote Sensing-SAR – Environmental Monitoring und Ökologie ......................................................................................................... 18 TeraHertz Imaging & Sensing ............................................................................................................................................................. 20 Computergraphik & Echtzeitvisualisierung .......................................................................................................................................... 22 Optische Aufbau und Verbindungstechnik .......................................................................................................................................... 23 PMD-Technologie .............................................................................................................................................................................. 24 Abbildende Systeme mit durchdringender Strahlung – Die Compton-Kamera ...................................................................................... 25 Mechatronik und Medizintechnik ........................................................................................................................................................ 26 Anwendung von Sensoren in der Fertigungstechnik ............................................................................................................................. 28

Sensorgestütztes Entgraten mit Industrierobotern ................................................................................................................................ 30 Rekonfigurierbare Verteilte Systeme für modellbasierte Multisensorlösung ........................................................................................... 31 Lernende industrielle Oberflächeninspektion ...................................................................................................................................... 32 SyncStamp – Zeitmarken für örtlich weit verteilte Ereignisse ................................................................................................................. 33 Interferometric Cartwheel – Ein neues SAR-Verfahren ......................................................................................................................... 34 Realitätsnahe Modelle zur Kalibrierung multisensorieller Messdaten im Hinblick auf die Cartwheel-Formation ..................................... 35 2D/3D Multisensorkamera für Echtzeitanwendungen .......................................................................................................................... 36 2D/3D-Sensorsimulation – PMD-Sim ................................................................................................................................................. 37 Multisensorfusion bei der Kooperation mobiler Roboter ...................................................................................................................... 38 Nichtinvasive Koronarangiographie bei höheren Röntgenstrahlungsenergien mit einem Kontrastmittel auf Gadoliniumbasis ................. 39 Hochgeschwindigkeitsradiographie .................................................................................................................................................... 40 Signaltheoretische Auswertung von Strom- und Spannungsverläufen einer nichtlinearen Kondensatorcharakteristik .............................. 41 OEP-Technologie (Opto-Elektronischer Prozessor) für optimale Verknüpfungen optischer & elektronischer Multikanal-Signale .............. 42

Bistatic Focusing ................................................................................................................................................................................ 46 Processing Parameter Estimation in Bistatic SAR ................................................................................................................................. 47 Time Synchronization ......................................................................................................................................................................... 48 Design of Wireless Sensor Nodes ....................................................................................................................................................... 49 Image Registration in Remote Sensing ................................................................................................................................................ 50 A new multi-chip 2D/3D camera and its special calibration techniques ............................................................................................... 51 Distributed Realtime Applications ....................................................................................................................................................... 52 Smart Vision System Based on Support Vector Machines .................................................................................................................... 53 Entwicklung von Systemplattformen für Multisensorhardware .............................................................................................................. 54 GNSS based Positioning and Attitude Determination .......................................................................................................................... 55 Data Fusion in Mobile Wireless Sensor Networks for Positioning ......................................................................................................... 56 Positioning and Localization System based on PMD (Optical Local Positioning Device) ........................................................................ 57 Stabilization of Bilaterally Controlled Teleoperated Systems in the Presence of Time-Varying Delays ...................................................... 58

Inhaltsverzeichnis

Engineering is the professional and systematic application of science to the efficient utilization of natural resources to produce wealth.

T. J. Hoover and J. C. L. Fish, 1941

ZESS Vorstand und wissenschaftlicher Beirat

SeiteVorwort ........................................................................................................................................................................................ 3Idee und Philosphie ..................................................................................................................................................................... 6Vorstand & Geschäftsstelle ......................................................................................................................................................... 7Werkstatt & Elektronik .................................................................................................................................................................. 9

Kompetenzfelder ......................................................................................................................................................................... 10

Forschungsschwerpunkte, Anlagen und Einrichtungen ............................................................................................................... 11

Kooperationen ............................................................................................................................................................................. 12

Ausgewählte Themenfelder ......................................................................................................................................................... 18

Laufende und kürzlich abgeschlossene Forschungsprojekte in Multi Sensorics ........................................................................... 29

International Postgraduate Programme (IPP) Multi Sensorics ...................................................................................................... 43International Postgraduate Programme (IPP) Multi Sensorics – Selected Research Projects ......................................................... 45

Publikationen ............................................................................................................................................................................... 59Anfahrt ......................................................................................................................................................................................... 63Industrielle Kooperationspartner ................................................................................................................................................. 64

Page 4: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

6 7

Idee und Philosophie

The collaboration among professors and scientists of the faculties of electrical, mechanical engineering, physics, and chemistry was intended to be interdisciplinary in order to develop and construct new intelligent sensors and sensor systems. Combining the knowledge, expertise and individual skills of the interdisciplinary participants should provide innovation and improvement of technical products and production processes. Advisory service, research and developmental projects in cooperation with small and middle-class enterprises (KMUs) of the local region should enforce the competitiveness of the industry, support new tech-nologies and encourage the regional structural change.

After more than 15 years of activities now, the ZESS can look back at a history of impressive innovations and has meanwhile obtained an internationally acknowledged top position on various areas of sensorics. The result of this remarkable success is shown by a large number of successful projects as well as the high qualification grade of its leavers.

In acknowledgement of ZESS’s history of scientific success, German Academic Exchange Service (DAAD) provided ZESS with the funding to establish the International Postgraduate Programme (IPP) Multi Sensorics which is open to Master and Diploma degree holders from all engineering disciplines, mathematics and physics. Based on specific curricular courses taught by lecturers from the university, the participants in this programme are given the opportunity to actively participate in the scientific work of the center, work on their own scientific problems and simultaneously prepare their doctoral thesis within a period of three years.

The Center of Sensor Systems was founded in 1989 by the provincial government in the course of „Zukunftsinitiative Montanregionen” (ZIM). It was the biggest individual ZIM-project of the region of Siegen and that in the form of a central scientific institute asscociated to the University of Siegen.

Das Zentrum für Sensorsysteme wurde 1989 im Rahmen der „Zukunftsinitiative Montanregionen (ZIM)“ der Landesregierung als größtes ZIM-Einzelprojekt der Region Siegen in Form einer zentralen wissenschaftlichen Einrichtung der Universität-GH Siegen gegründet.

Zur Entwicklung und Konstruktion von neuen intelligenten Sensoren und Sensorsystemen war die interdisziplinäre Zusammenarbeit von Professoren und Wissenschaftlern der Fachbereiche Elektrotechnik, Maschinenbau, Physik und Chemie beabsichtigt. Diese interdisziplinäre Verbindung von Wissen, fachlicher Kompetenz und individuellen Fähigkeiten sollte Innovation und Verbesserung der technischen Produkte und Produktionsprozesse hervorbringen. Die Beratung, Forschung und Entwicklungsprojekte zusammen mit kleinen und mittelständischen Unternehmen (KMUs) der Region sollten die Wettbewerbsfähigkeit der Industrie verstärken, neue Technologien unterstützen und den regionalen Strukturwandel anregen.

Nach mehr als 15 Jahren kann das ZESS auf eine Geschichte von beeindruckenden Innovationen zurückblicken und hat inzwischen eine international anerkannte Spitzenposition auf verschiedensten Gebieten der Sensorik erreicht. Dieser bemerkenswerte Erfolg zeigt sich in einer großen Anzahl von erfolgreichen Projekten sowie der herausragenden Qualifikation ihrer Abgänger.

Als Bestätigung des wissenschaftlichen Erfolges wurde dem ZESS vom Deutschen Akademischen Austauschdienst (DAAD) die finanzielle Unterstützung zur Gründung des International Postgraduate Programme (IPP) Multi Sensorics bereitgestellt. Dieses Programm ist zugänglich für Studenten mit Master- und Diplomabschluss aller Ingenieurwissenschaften sowie Mathematik und Physik. Basierend auf spezifischen curricularen Kursen, die von Dozenten der Universität gelehrt werden, bekommen die Teilnehmer dieses Programms die Möglichkeit, aktiv am wissenschaftlichen Arbeiten des Zentrums teilzunehmen. Sie bearbeiten ihre eigenen wissenschaftlichen Themen und erstellen gleichzeitig innerhalb von drei Jahren ihre Doktorarbeit.

Vorstand & Geschäftsstelle

Dr. rer. nat. Wolfgang Weihs

– stellv.Geschäftsführer –

Dr.-Ing. Klaus Hartmann

– Geschäftsführer –

Renate Szabó

– Team Assistentin –

Prof. Dr.-Ing. habil. Otmar Loffeld

– Vorsitzender –

Prof Dr.-Ing. Hubert Roth

– stellv. Vorsitzender –

Page 5: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

8 9

Werkstatt und Elektronik

Exper imente und p rak t i s che E rp robungen s ind d ie unve rz i ch tbare Bas i s j ede r w i s senschaf t l i chen A rbe i t . S ie s ind uner läss l i ch , um theore t i s che E rkenntn i s se abzus i che rn , S imula t ionse rgebn i s se zu ve r i f i z i e ren und d ienen a l s G rund lage fü r d ie w i s senscha f t l i che Mode l lb i ldung und Mode l lpa ramet r i e rung .

Um Spi tzenforschung in den genannten Gebieten bet re iben zu können, bedar f es hierzu e iner angepassten Inf rast ruktur mit Mitarbei tern, d ie nicht nur gelernt haben, interdisz ip l inär zu denken und teamorient ier t zu arbei ten, sondern auch e ine „Brücke zu schlagen“ zwischen theoret ischer

Abst rakt ion und prakt ischer Umsetzung.

„Probieren geht über Studieren“

Werkstatt und Elektronik

Desha lb wu rde s chon be i G ründung e i ne Mechan i k - und E l ek t r on i kab t e i l ung i n d i e O rgan i sa t i on s s t r uk tu r de s ZESS i n t eg r i e r t . D i e s e Ab t e i l ungen ve r s o rgen a l l e Fo r s chungsg ruppen s chne l l und unkomp l i z i e r t m i t mechan i s chen Komponen t en b i s h i n zu Funk t i on smus t e rn und

Pr o t o t ypen . „Maßges chne ide r t e“ Mecha t r on i k und E l ek t r on i k -Komponen t en f ü r d i e v e r s ch i edens t en Pr o j ek t e we rden vom Fe r t i gungsen twu r f übe r Kon s t r uk t i on , S cha l t p l an und Layou t b i s zu r f e r t i g en Baug ruppe du r ch Pe r sona l m i t l ang jäh r i ge r E r f ah rung r ea l i s i e r t .

D i e Un t e r s t ü t zung von M i t a rbe i t e r n und S tud i e r enden z .B . be im komp le xen Zu sammensp i e l v on Mechan i k , Pneuma t i k , E l ek t r on i k und de r So f twa r e i s t e i ne t äg l i c he Se l b s t v e r s t änd l i c hke i t f ü r da s Labo r t eam.

Page 6: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

10 11

Kompetenzfelder

Sensorentwicklung

Prof. Dr. Schwarte PMD-Technologie3D-Objekterfassung3D-Objekterkennung

• Optoelektronische Mischer • 3D-Kamera (PMD-Technologie)

Prof. Dr. Peter Haring Bolívar Terahertz-Imaging • THz Sensorik und Bildgebung• THz Integrationstechnologien • THz Anwendungsentwicklung

Prof. Dr. Griese (assoziiertes Mitglied)

PhotonikOptische Aufbau- & Verbindungstechnik

• Optische Bussysteme• Bidirektionale optische Verbindung auf Basis der PMD-Technologie

Prof. Dr. Walenta Abbildende Systeme mit durchdringender Strahlung

• Weiterentwicklung Röntgenstrahlendetektor• Compton-Kamera

Sensorinformationsverarbeitung

Prof. Dr. Loffeld Optimale Signal- und Messwertverarbeitung, Sensordatenfusion, Remote Sensing - SAR

• Interferometric Cartwheel • SAR Interferometrie• Signalverarbeitung• Datenfusion• Baseline-Kalibrierung• PMD-Signalverarbeitung

Prof. Dr. RothDr. Wahrburg

Mechatronik und Medizintechnik • Chirurgie-Roboter• Medizintechnik• Mobile Robotik• Telematik

Prof. Dr. Kolb Computergraphik und Echtzeit-Visualisierung • Sensorinformationsverarbeitung - 3D Sensordatenverarbeitung

Prof. Dr. Köhne (Senior Member)

Signalverarbeitung & Regelung mit örtlich verteilten Sensorsystemen

• Verteilte Regelungsstategien• Neuronale Netze• Sensornetzwerke

Systemintegration

Dr. HartmannDr. Weihs

Embedded System Engineering • Multisensorik & Echtzeitsignalverarbeitung• System On Programmable Chip, (SoPC-Technologie)• Bildverarbeitung

Prof. Dr. Scharf Anwendung von Sensoren in der Fertigungstechnik

• Oberflächeninspektion• Prüfung geometrischer Größen• Fertigungsautomatisierung

Forschungsschwerpunkte

Remote Sensing – Fernerkundung• Bistatic SAR Imaging• Environmental Exploration NRW E2N• Synthetic Aperture Radar (SAR)• Communication, Time and Phase Synchronization, and Positioning in Mobile Wireless Sensor Networks

2D/3D Vision und Kameratechnologie• 3D-Sehen – Photonic Mixer Device• Simuliertes 3D-Sehen• Chip in the loop Technologie• Bildverarbeitung auf dem Graphikprozessor• Embedded Systems and Distributed Real-time Applications• Smart Vision System based on Support Vector Machines

Photonics and Vision• THz Imaging and Sensing• Compton Imaging with Semiconductor Detectors• Real Time Fusion of Depth and Light Field Images• Optische Aufbau- & Verbindungstechnik

Robotics / Industrieapplikationen• Modulares System zur Unterstützung chirurgischer Eingriffe• Mobile Robots for Search and Rescue• Position Calibration of a Mobile Robot based on 3D vision• Application of 3D-PMD Video Cameras in Autonomous Mobile Robotics• Fluoreszenzspektroskopie für die industrielle Oberflächenprüfung• CAD-basierte Prüfung mit einem Roboter• Hochpräzise Schneidgratmessung für industrielle Applikationen

Anlagen und Einrichtungen

• Labor/Einrichtungen für Embedded Control und verteilte Multisensor- und Multiaktorsysteme• CAE/CAD Software für das Design programmierbarer Logik• Sensortesteinrichtungen • Optoelektroniklabore• Labore für Optik und Laserspektroskopie• Nasslaboratorien• Lokales Rechnernetzwerk mit zahlreichen Workstations (WindowsXP, Linux) und Servern (Novell Netware...)• Elektronikwerkstatt

Forschungsschwerpunkte, Anlagen und Einrichtungen

Page 7: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

12 13

Kooperationen

Forschungsgesellschaft für Angewandte Naturwissenschaften (FGAN) in Werthoven/Wachtberg

Das Institut für Hochfrequenzphysik und Radartechnik (FHR) der FGAN entwickelt und betreibt flugzeuggetragenene SAR-Sensoren (SAR = Synthetic Aperture Radar). Ein Schwerpunkt der IPP-Themen ist die SAR-Signalverarbeitung. Durch die Zusammenarbeit mit der FGAN sollen folgen-de Forschungsziele im IPP vorangetrieben werden:

• Gemeinsame Entwicklung von bistatischen SAR-Verarbeitungsalgorithmen• Gemeinsame Planung und Durchführung von Flugzeug-SAR-Missionen• Gemeinsame Betreuung von Doktoranden• Gastforschungs- und Arbeitsaufenthalte von IPP-Doktoranden bei der FGAN.

Center for Sensor Signal and Information Processing (CSSIP), Adelaide, Australien

Das CSSIP (http://www.cssip.edu.au/) ist ein sogenanntes Corporate Research Center (CRC), welches von 5 australischen Hochschulen (University of Adelaide, University of South Australia, Flinders University of South Australia, University of Melbourne, University of Queensland), und dem DSTO, sowie einigen Industriefirmen getragen wird. Die Kooperationsgespräche hatten und haben folgende Ziele:

• Aufbau gemeinsamer Forschungsvorhaben• Austausch von Promotionskandidaten in gemeinsam getragenen Forschungsvorhaben• Austausch von Dozenten• Erhöhung der gegenseitigen Attraktivität der Promotionsprogramme• Gemeinsame Betreuung von Promotionsvorhaben – „Cotutelle de thèse“

Deutsches Zentrum für Luft- und Raumfahrt (DLR) in Wessling/Oberpfaffenhofen

Mit den Insituten für Hochfrequenztechnik (IHR) und für Methodik der Fernerkundung (IMF) des DLR existieren langjährige Kooperationsbeziehung, beispielsweise in den deutsch/italienischen X-SAR-Missionen, der ERS1/2-Tandem-Interferometriemission und in der Shuttle Radar Topogra-phy Mission (SRTM). Geplant ist auch die Kooperation in der TerraSAR-X-Mission sowie in der zukünftigen TerraSAR-Tandem-X-Mission. Gegenstände der Kooperation sind:

• Gemeinsame Forschungsvorhaben• Gastaufenthalte von Promovierenden im jeweiligen Institut• Gastdozenturen

Terra Sar-X © EADS Astrium

© www.photocase.com

© www.fgan.de

Kooperationen

A team around Prof. Dr. R. Schwarte, founder of the ZESS, consisting of Dr. Bernd Buxbaum (PMD-Technologies) and Torsten Golewski (PMD-Technolgies) was one of the four nominees for the ‘Deutsche Zukunftspreis 2002’, probably the most renowned and highest national technical distinction, which is awarded by Federal President of the Federal German Republic each year. This nomination reflects more than a decade of fruitful scientific work performed at ZESS and the Institute for Commication Processing on the devel-opment of non tactile three dimensional imaging, which culuminated in the discovery of the ‘Photo-nic Mixer Device (PMD)’, a camera chip capab-le of directly acquiring three dimensional image information rather than 2D-images.

Non tactile precise and fast 3D-imaging is the key to a multiplicity of technical applications, givng rise to completely new approaches in automated production processes, robotics and automotive applications.

New driver assistance systems of all types can ac-tively improve security while the continuous 3D-monitoring of the car’s interior enables the ‘out of position detection’ of driver and passengers needed to adaptively control the airbag deploy-ment in a crash situation.

Experts unanimously agree that the period of elec-tronics with all its achievements, improvements of comfort and lastly successes will consequently give way to the period of photonics for which the PMD is an excellent example.The PMD, however, is not only technically thril-ling, it also stands for ZESS’ philosophy which can be summarized by the slightly modified citation of page 2:

„Engineering is the professional and syste-matic application of science to the efficient utilization of natural resources to produce comfort, progress, security and wealth...“

T. J. Hoover and J. C. L. Fish, 1941

Page 8: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

14 15

Kooperationen und Kooperationsvorhaben

Für die bistatische bildgebende Synthetic Aperture Radar Fernerkundung müssen vier grundsätzliche Hürden genommen werden: Erstens müssen theo-retische Grundlagen geschaffen werden, die die zu erwartende Performance bei gegebenen Geome-trie- und Radarparametern abschätzbar machen und eine Systemoptimierung erlauben. Zweitens müssen Algorithmen zur bistatischen Bilderzeugung entwor-fen werden. Drittens müssen technische Vorausset-zungen zur Gewinnung bi- und multistatischer Daten geschaffen werden und viertens müssen experimen-telle Aufnahmen und Auswertungen zur Verifikation durchgeführt werden. Das Kooperationsvorhaben deckt dieses gesamte Problemspektrum ab:• Auf der Basis von zwei im FHR und ZESS entwickel-

ten, wissenschaftlich miteinander konkurrierenden Verarbeitungsansätzen werden parallel die bista-tischen SAR-Bildgewinnungsverfahren erforscht, weiter entwickelt und miteinander verglichen.

• Die bestehende Sensorik für monostatisches SAR wird zunächst für den bistatischen Betrieb an-gepasst und um Synchronisationsmechanismen erweitert. Weiter sollen hochgenaue Lage- und Positionsbestimmungsverfahren entwickelt und implementiert werden, die im Missionsbetrieb die Ausrichtung und Nachführung der Antennen ge-statten, so dass sich die ‚Antenna-Footprints’ von Sende- und Empfangsantenne unabhängig von

den individuellen Flugtrajektorien ständig überde-cken.

• Die Bestimmung der bistatischen Verarbeitungs-parameter aus den geometrischen Szenenpa-rametern sowie die direkte Bestimmung aus den vorliegenden Rohdaten sind weitere Forschungs-schwerpunkte.

• Simulation dient einer ersten Verifikation der Algo-rithmen in verschiedenen exakt parametrierbaren und reproduzierbaren Einsatzszenarien sowie der Unterstützung der Missionsplanung für reale bis-tatische Experimente. Hierzu wird in einer parallel verlaufenden Forschungs- und Entwicklungslinie ein modularer bistatischer Roh- und Referenzda-tensimulator realisiert. Die Modularität dieses Si-mulators ist dabei eine sich aus der Vielzahl der möglichen bistatischen Konstellationen ergebende zwingende Notwendigkeit.

• Visualisierung und Simulation besitzen erfahrungs-gemäß für alle Arbeitsschritte eine integrative Funktion und sind insbesondere für die Entwick-lung, Verifikation und Validierung unverzichtbar.

• Die endgültige Verifikation geschieht durch Ex-perimente unter kontrollierten Bedingungen, von denen die geplante bistatische Unterfliegung des TerraSAR-X Satelliten mit dem PAMIR-System des FHR die größte Herausforderung darstellen dürf-te.

Zusammenfassend besteht das Vorhaben aus sechs Teilprojekten, die eng miteinander gekoppelt sind und gemeinsam, aber in Federführung jeweils eines Institutes bearbeitet werden. Tabelle 1 (s. rechts) gibt einen Überblick über die Teilanträge, über die Fe-derführung sowie über die beteiligten Institute in der Reihenfolge der Größe ihres Arbeitsanteils. Im Zentrum des Gesamtvorhabens steht die Bildge-winnung (Fokussierung) aus bistatischen Rohdaten (BiFOCUS). Das Teilvorhaben ModSAR-Sim liefert unter Einbeziehung realer Trägerplattformdynamik simulierte und annotierte bi- und monostatische Roh-daten und Referenzdaten zum Test der Algorithmen unter genau definierten und reproduzierbaren Rand-bedingungen. Ferner liefert der Simulator verschie-dene Sensormess- und Referenzdaten zum Test der in AtPos und BiSARSynch entwickelten Verfahren zur Positions- und Lagebestimmung der bistatischen Sensoren. Das Teilvorhaben TerraPAMIR deckt die Planung, Durchführung und damit den Einsatz der gesamten bistatischen Verarbeitungskette in der sehr anspruchsvollen bistatischen TerraSAR-X Unter-fliegung ab. Im Teilvorhaben SARVis werden Algo-rithmen und Verarbeitungstechniken zur interaktiven Visualisierung und Analyse massiver SAR-Daten ent-wickelt, die zur Verifikation, Visualisierung und Validie-rung in allen Teilschritten der gesamten bistatischen Verarbeitungskette eingesetzt werden können.

Kooperationsvorhaben: Bistatic Exploration

© EADS Astrium

Kooperationen und Kooperationsvorhaben

Übersicht über die Teilanträge des PaketesProjektkürzel Projektname organisatorische Federführung Beteiligte Institute in der Reihenfolge der Arbeitsanteile

ModSAR-Sim Modulare SAR-Simulation FOMAAS FOMAAS, ZESS, FHR

TerraPAMIR Bistatische Unterfliegung des TerraSAR-X Satelliten mit dem flugzeuggetragenen SAR-System PAMIR

FHR FHR, ZESS, FOMAAS

AtPos Positions- und Lagebestimmung für bistatische Missionen

ZESS ZESS, FHR, FOMAAS

BiSARSynch Raum- und Zeitsynchronisation bistatischer Plattformen

FHR FHR, ZESS, FOMAAS

BiFOCUS Bildgewinnung aus bistatischen SAR-Rohdaten ZESS ZESS, FHR, FOMAAS

SARVis Interaktive Verarbeitung & Visualisierung von SAR-Daten

ZESS ZESS, FOMAAS, FHR

© EADS Astrium

Page 9: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

16 17

Kooperationen und Kooperationsvorhaben

Kooperationsvorhaben: Dynamisches 3D Sehen mit PMD

Seit Februar 2006 werden sechs Forschungspro-jekte im Rahmen des Forschungspaketes „Dyna-misches 3D Sehen mit PMD“ am ZESS bearbeitet. Das Forschungspaket wird von der Deutschen For-schungsgemeinschaft (DFG) unter der Förderungs-nummer PAK-73 geförderten und ist auf vier Jahre angelegt.Ziel dieses Forschungspaketes ist die koordinierte Bearbeitung zentraler Aspekte, die für eine reale und echtzeitnahe Umsetzung von dynamischem 3D-Sehen auf Basis der Photonic Mixer Device (PMD)-Technologie notwendig sind. Dies bein-haltet die dynamisch-interaktive Verarbeitung von Multisensordaten, um 3D-Daten in Kombination mit 2DBilddaten zu hochauflösender 2D/3D-In-formation zusammenführen zu können. Ziel ist es dabei einerseits aus den Sensordaten zuverlässig Entfernungsmesswerte zu erzeugen und anwen-dungsübergreifend aufzuarbeiten. Andererseits werden für dedizierte Anwendungsrichtungen spe-zifische Verfahren zur Lokalisation, Modellerfas-sung, -verfolgung und -rekonstruktion entwickelt.Die Ermittlung der Entfernung zu einem Objekt in der Umgebung relativ zur Lage eines Sensors wird bereits sehr lange intensiv erforscht. Geht es jedoch um folgende Zielsetzungen• echtzeitnahe Erfassung dynamischer Bewegun-

gen von Objekten in einer Szenerie,

• echtzeitnahe 3D-Objekterkennung und relative Positionserfassung und

• hochauflösende 3D-Information mit sub-mm Tiefenauflösung,

dann gibt es heute zwar eine Reihe von Ansätzen, von denen bislang aber keiner bisher den Reife-grad erreicht hat, der einen breiten operativen Einsatz ermöglicht. Im Rahmen des Forschungs-paketes Dynamisches 3D-Sehen werden Themen bearbeitet, die die vorgenannten Ziele auf Basis der vielversprechenden Photonic Mixing Device (PMD)-Technologie adressieren.Folgende relevante Fragestellungen des hardware-technischen Kameraaufbaus, der Datenaufbe-reitung und der sensornahen Datenverarbeitung werden untersucht, sowie für eine Reihe von An-wendungsrichtungen vertieft.• 2D/3D-Multisensorentwicklung: Aus Sicht der

Sensorik konzentrieren sich alle Teilprojekte dieses Paketes auf eine Kombination von 2D-Bild- und 3D-Sensorchips auf Basis der PMD-Technologie. Der Inhalt des ersten Themen-schwerpunktes konzentriert sich auf die Erstellung einer Systemplattform für Multisensor-Hardware zur dynamischen Erfassung von 2D/3D-Daten, wobei monokulare und binokulare Aufbauten, sowie Multi-Kamera-System berücksichtigt wer-den.

• Kalibrierung und Datenfusion: Der Einsatz von 2D/3D-Multisensordaten erfordert zunächst die Umwandlung der Sensordaten in Entfernungs-werte. Die hierfür notwendige Kalibrierung ist ein wichtiger erster Schritt zur Nutzung der Mul-tisensordaten. Die Fusion der Daten und deren transparente Nutzung, sowie die lokale Korrektur von Sensorfehlern und die lokale Verfeinerung der groben Tiefeninformation ist für eine Vielzahl von angrenzenden Forschungsfeldern wichtig.

• Simulation von 2D/3D-Multisensoren: Bei der Simulation stehen Fragestellungen zur Model-lierung des Bildgebungsprozesses für 2D/3D-Multisensorsysteme unter Einbeziehung physika-lischer Effekte und auftretenden Störphänomene im Vordergrund. Wichtig ist hierbei auch der quantitative Abgleich mit idealen Sensordaten, auf deren Grundlage eine Validierung von Ver-arbeitungsalgorithmen ermöglicht wird.

• Lokalisation und Modellbildung: Im Rahmen des Forschungspaketes wird das Problem der relati-ven Positionsbestimmung eines 2D/3D-Sensors zu einem oder mehreren erfassten Objekten untersucht. Abhängig von der Anwendungsrich-tung werden zudem Fragestellungen der Bildung räumlicher Modelle erforscht. Dies umfasst so-wohl die Repräsentation als Oberflächenmodell als auch die Kartographierung geeigneter Land-

Kooperationen und Kooperationsvorhaben

Übersicht über die Teilanträge des PaketesProjektkürzel Projektname Projektbeteiligte

MultiCam 2D/3D Multisensorkamera für Echtzeitanwendungen Prof. Loffeld, Prof. Roth, Prof. Schwarte (alle ZESS)

PMDSim 2D/3D-Sensorsimulation Prof. Loffeld, Prof. Kolb (alle ZESS)

2D3DProc 2D/3D Datenverarbeitung und -fusion auf Basis der PMD-Technologie Prof. Kolb, Prof. Loffeld (alle ZESS)

3DPoseMap 3D-Poseschätzung und 3D-Mapping mittels PMDKamera Prof. Koch (Kiel), Prof. Roth (ZESS)

PMDLumi Echtzeit-Akquisition bildbasierter 3D-Modelle zur Objekterkennung Prof. Kolb, Prof. Kuhnert, Dr. Rezk-Salama (alle ZESS)

3DTHz 3D Bilderfassung im Terahertzfrequenzbereich basierend auf elektrooptischer Detektion

Prof. Haring (ZESS), Prof. Roskos (Frankfurt), Prof. Schwarte (ZESS), Dr. Löffler (Frankfurt)

Kooperationsvorhaben: Dynamisches 3D Sehen mit PMD

marken. Die Modelle können neben der geome-trischen Information zusätzlich Beleuchtungsda-ten beinhalten.

• Objekterfassung und -verfolgung: Die Frage-stellung der Erfassung bekannter und unbekann-ter Objekte mit Hilfe anwendungsspezifischer 2D/3D-Kamerakombinationen ist ebenfalls Be-standteil des Forschungspaketes. In diesem Kon-

text werden Techniken zur Fusion von Beleuch-tungs- und Entfernungsinformationen und zur echtzeitnahen Bildsynthese für einen Objektver-gleich untersucht. Zudem ist die Verfolgung von Objekt-Merkmalen ein wichtiger Forschungsge-genstand.

• THz Kamera Entwicklung: In einem Teilprojekt wird angestrebt, das Frequenzspektrum der

PMD-basierten Bildgebung zu erweitern. Mittels elektro-optischer Verfahren soll die PMD Ka-mera auch im THz-Frequenzbereich eingesetzt werden, um neue Anwendungsfelder abdecken zu können. Neben einer deutlich höheren Tiefen-auflösung ermöglicht eine THz Kamera chemisch selektive Analysen, die beispielsweise in der Si-cherheitstechnik ein hohes Potenzial besitzen.

© Prof. Koch, Multimediale Systeme zur Informationsverarbeitung, Universität Kiel

Page 10: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

18 19

Ausgewählte Themenfelder: Remote Sensing-SAR – Environmental Monitoring & Ökologie

Prinzip und AnwendungenDie Abkürzung SAR steht für Synthetic Aperture Radar (Radar mit synthetischer Apertur) und be-schreibt ein aktives bildgebendes Verfahren mit Mikrowellen (Fotografie mit Mikrowellen), welches zur fotografischen Fernerkundung von Planeteno-berflächen, wie der Erde, hervorragend geeignet ist. Als Trägerplattformen werden Flugzeuge oder Satelliten verwendet. Durch die aktive Betriebswei-se (der SAR Sensor führt seine eigene Mikrowel-lenbeleuchtung mit) ist das Aufnahmeverfahren tageszeitunabhängig, aufgrund der verwendeten Mikrowellenstrahlung, die, je nach Wellenlänge, auch Wolken durchdringt, ist das Verfahren auch wetterunabhängig. Die geometrische Auflösung eines SAR-Sensors ist aufgrund der kohärenten Verarbeitung entfernungsunabhängig, ein weiterer Vorteil gegenüber optisch inkohärenten Aufnahme-verfahren.

Die Nutzung von SAR-Bildern ist fester Bestandteil in zahlreichen wissenschaftlichen und in zunehmen-dem Maße kommerziellen Disziplinen:

• Abbildung von Landgebieten zum Zweck der geographischen Kartierung,

• Klassifizierung land- und forstwirtschaftlicher Nutzflächen,

• Bestandsaufnahme in der Forstwirtschaft,• Environmental Monitoring: Überwachung tro-

pischer Regenwaldflächen, Gletscher- und po-lare Eiskappenabbildung, Verfolgung des Ab-schmelz- oder Wachstumverhaltens,

• Ozeanographie und Klimaforschung: Abbil-dung der Meeres- und Polargebiete, Analyse von Meeresströmungen, Wellen, Gletscher- und Eisbildung bzw. -rückbildung,

• Umweltschutz: Ölteppichverfolgung und Ursa-chendetektion auf Meeren und Seen,

• Katastrophenwarnung und -verfolgung, Vor-hersage und Ausmaßabschätzung von Über-schwemmungen, Vulkanausbrüchen, Erdbeben

SAR-InterferometrieNeue und arrivierte Anwendungen basieren auf der SAR-Interferometrie: Aus dem Interferogramm zweier oder mehrerer SAR-Aufnahmen des glei-chen Gebietes, die von unterschiedlichen Aufnah-menpositionen gewonnen wurden, können durch Verarbeitung die folgenden Informationen gewon-nen werden:

• 3D-Höhenmodelle (zusätzlich zum SAR-Hellig-keitsbild) der abgebildeten Oberfläche durch ‚Across-Track-Interferometrie’

• Analyse von Meeresströmungen, Oberflächen-bewegungen durch ‚Along-Track-Interferome-trie’

Aktuelle Forschung:

Bi-, bzw. multistatische SAR-SystemeVon der Definition her ist ein bistatisches Radar ein Radarsystem, welches mit getrennten Sende- und Empfangsantennen betrieben wird. Eine Variation des bistatischen Radars ist das multistatische Radar, wo zwei oder mehr getrennte Empfängerantennen benutzt werden, die die Signale einer einzelnen Sendeantenne empfangen.

Remote Sensing-SAR – Environmental Monitoring und Ökologie

Optische Satellitenaufnahme von der Küste von Waterford, Irland während Bewölkung. Satellit: Landsat

Etwa gleichzeitige SAR-Aufnahme von der Küste von Waterford. Satellit: ERS-1 Bistatisches SAR-Prinzip

Es werden zwei oder mehr Empfänger mit gleichem (oder überlappendem) „Antenna Footprint“ ver-wendet, die unabhängige Empfangsdaten liefern. Die Kombination dieser Daten ist auf verschiede-ne Arten möglich: Wenn Phase und Amplitude der Zielechos kohärent miteinander kombiniert werden, entsteht eine große, verteilte Empfängerantenne, es ergibt sich eine Auflösungserhöhung in Abstands- und Flugrichtung (Range und Azimut). Auf dem Gebiet der bistatischen Synthetic Aperture Radar-verarbeitung besteht noch enormer Forschungsbe-darf. Hier konkurrieren z.Zt. weltweit wenige neue Verarbeitungsansätze, darunter ein Ansatz aus dem Zentrum für Sensorsysteme. Einzelproblemstellun-gen sind:

• Entwicklung bistatischer SAR-Signalverarbei-tungsalgorithmen

• Bistatische Parameterestimation• Bistatische Bewegungskompensation• Bistatische Sensorsynchronisierung

Interferometric CartwheelDas „Interferometric Cartwheel“ (Interferometrisches Speichenrad) ist das momentan vielversprechends-te neue Konzept auf dem Gebiet der SAR-Sensorik, SAR-Signalverarbeitung und SAR-Interferometrie (SAR = Synthetic Aperture Radar). Quasi-simulta-ne Radar Bilder können günstig durch ein Set aus passiven Empfängern, welche sich in einer Konstel-lation von orbitalen Mikrosatelliten befinden, er-zeugt werden. Durch die Kombination dieser Bilder kann entweder die Auflösung in Range (Abstand) und Azimut (Flugrichtung) verbessert werden oder systematisch Across-Track- und Along-Track-Inter-ferometrie betrieben werden.

Das interferometrische Cartwheel setzt sich zusam-men aus einem „Beleuchter“ (Sender) und mehre-ren (passiven) Empfänger-Satelliten, die als Mikro-satelliten ausgeführt sein können.

Beleuchter und jeder einzelne Empfänger der Cart-wheel-Anordnung bilden eine bistatische SAR-An-ordnung. Nach der Verarbeitung jedes einzelnen SAR-Datensatzes entstehen 3 kohärente SAR-Bilder der gleichen beleuchteten Szene, die interferome-trisch überlagert werden können.

Problemstellungen, an denen das ZESS arbeitet, sind:

• Bistatische SAR-System-Dimensionierung,• Bistatische SAR-Modellierung und SAR-Daten,• Interferometrische Prozessierung der Cartwheel-

Daten, speziell im Hinblick auf die Trennung der gleichzeitig anfallenden Across-Track- und Along-Track-Interferometrieanteile,

• Orbitmodellierung und Calibrierung des Cart-wheels sowohl im Hinblick auf Sensorik als auch im Hinblick auf die Verarbeitung,

• Hochgenaue Positions- und Lagebestimmung der Einzelsatelliten einer Satellitengruppe,

• Entwicklung optimaler, dezentraler Datenfusi-onsalgorithmen mit Kalman-Filtern.

Kontakt:

Prof. Dr.-Ing. Otmar LoffeldTelefon: 02 71 /7 40 - 31 25Fax: 02 71 /7 40 - 23 36E-mail: [email protected]: http://www.zess.uni-siegen.de/

Ausgewählte Themenfelder: Remote Sensing-SAR – Environmental Monitoring & Ökologie

Abbildung: Cartwheel-Anordnung

Page 11: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

20 21

Der Terahertz Frequenzbereich (300GHz – 10THz) befindet sich im elektromagnetischen Spektrum zwischen Mikrowellen- und Infrarotstrahlung. Im Gegensatz zu diesen mittels etablierter elektroni-scher bzw. laserbasierter Verfahren gut zugängli-chen Bereichen, erweist sich die Erschließung des THz-Bereiches für alltägliche Anwendungen bisher schwierig.

Technische aufwendige Lösungen existieren bereits und werden seit einigen Jahren in der Radioastro-nomie und für atmosphärische Untersuchungen mit Satelliten genutzt. Die Komplexität, die geringe Effizienz und die hohen Kosten bisheriger Lösungs-ansätze sind jedoch prohibitiv im Hinblick auf eine breite Nutzung von THz Systemen. Dieser Mangel an effektiven technischen Lösungen führte daher zum Begriff der THz-Lücke. Obwohl vergleichswei-se schwach entwickelt, zeichnet sich ein äußerst breites Anwendungspotenzial für THz-Technologie ab. Durch intensive Forschung in den letzten Jah-ren konnte eine Vielzahl von Anwendungsgebieten identifiziert und technologische Möglichkeiten für breit einsatzfähige THz-Systeme eröffnet werden. Die THz Forschung befindet sich derzeit in einer Schlüsselphase und könnte in naher Zukunft auf Grund ihrer intrinsischen Vorteile radikal unsere analytischen Fähigkeiten erweitern:

• Viele optisch dichte Materialien, wie zum Beispiel Kleidung, Verpackungsmaterialien, zahlreiche Kunststoffe und keramische Materialien sind im THz-Bereich transparent. Dadurch ergeben sich neuartige Analyse- und Imaginganwendungen für Forschung und Technologie. Interessante Perspektiven eröffnen sich daher beispielsweise in der Qualitätskontrolle oder der Sicherheits-technik.

• THz-Strahlung ist nicht-ionisierend, daher unbe-denklich für biomedizinische Analysen und bietet somit eine Alternative zu herkömmlichen Rönt-genverfahren. Untersuchungen an Hautpräpa-raten (normale Dermis vs. Basalzell-Karzinom) deuten darauf hin, dass sich tumoröse Gewebe-veränderungen mit diesem neuartigen Verfahren durch Bildgebung darstellen und von gutartigen Veränderungen im Gewebe unterscheiden las-sen.

• Spezifische THz Molekülrotationen und -schwin-gungen ermöglichen die selektive markierungs-freie Identifizierung von Molekülen und Mole-külgruppen. Derzeitige Forschungsergebnisse weisen ein hohes Potenzial zur Entwicklung neu-artiger leistungsfähigerer Biochiptechnologien auf.

• THz-Strahlung liefert entscheidende Einblicke in die elektronische Dynamik von Halbleitern, Me-

tallen und Nanostrukturen, wobei letztere eine besonders wichtige Rolle für zukünftige pho-tonische und elektronische Komponenten und Systeme einnehmen. Interessante Charakterisie-rungssysteme für die Halbleiterindustrie werden derzeit entwickelt.

• THz-Strahlung wird im Gegensatz zu optischen Wellenlängen weniger stark gestreut, was den Einsatz bei rauen Umgebungsbedingungen be-günstigt. Hierbei sind die Anwendungsgebiete Robotic Vision und Prozesskontrolle unter indus-triellen Produktionsbedingungen in der näheren Betrachtung.

Ausgewählte Applikationsbereiche von THz Strah-lung finden z.B. Anwendung in der Astronomie (interstellare Materie, Mikrowellenhintergrund etc.), der Erdbeobachtung (atmosphärische Che-mie, Klima etc.), Medizin (Tumor-, Kariesdetek-tion etc.), Industrie (Paket- und Prozesskontrolle etc.), der Biotechnologie (genetische Analysen, Biochips etc.) und der Sicherheitskontrolle (Dro-gen- und Sprengstoffdetektion, Screening etc.). Diese exemplarischen Anwendungen resultie-ren aus intensiven Forschungsarbeiten, die in der Vergangenheit vornehmlich an universitären Einrichtungen durchgeführt wurden. Terahertz Technologie ist jedoch nun auch im Fokus des

TeraHertz Imaging & Sensing

Ausgewählte Themenfelder: TeraHertz Imaging & Sensing

Abb. 1: Beispiele von Qualitätskontrolle Anwendungen von THz Strahlung: a) berührungslose Schichtdickencharakterisierung von keramischen Beschichtungen für Festkörper Brennstoffzellen (SOFC von solid oxide fuel cells) b) berührungslose Charakterisierung der Schichtdicke von Silizium Carbid Wafern für die Leistungselektronik

Abb. 2: Beispiele von Anwendungen von THz Strahlung in der Medizintechnik: a) zeigt eine Probe als Frischpräparat eines Tumors in der Rachenschleimhaut nach einer Operation, b) zeigt den Unterschied der Absorption (hier als Extinktionskoeffizient k als Funktion der Frequenz dargestellt) an gesundem Gewebe (grüne Linien) und an tumorös verändertem Gewebe (rote Linie). Die Kreise markieren dabei die Extinktion von reinem Wasser.

Abb. 1a) Abb. 1b) Abb. 2a) Abb. 2b)

Ausgewählte Themenfelder: TeraHertz Imaging & Sensing

industriellen Interesses gerückt und intensive An-strengungen werden derzeit investiert um kosten-günstige, kompakte und effiziente THz Systeme zu entwickeln. Es ist interessant zu beobachten, dass sich im Terahertz Frequenzbereich technologi-sche Entwicklungen vereinen von elektronischen Arbeitsgruppen, die die Betriebsfrequenzen von elektronischen Systemen zu höheren Frequenzen hin erweitern wollen, als auch von photonischen Arbeitsgruppen, die den Betrieb von Lasern zu immer längerwelligen Spektralbereichen erwei-tern. Eine hohe Zahl an größeren Forschungsi-nitiativen wurden weltweit in Gang gesetzt, um die „Terahertz Lücke“ im elektromagnetischen Spektrum zu erobern.

Am Zentrum für Sensorsysteme werden Terahertz Technologien für breit einsatzfähige THz Imaging Systeme entwickelt. Spezifische Ziele der Arbeiten sind die Entwicklung von Lösungsansätzen, die leistungsfähig, jedoch einfach und kostengünstig genug sind, um im Alltag angewandt werden zu können. Der zweite Aufgabenschwerpunkt ist die Erforschung von neuen Anwendungsbereichen in enger interdisziplinärer Zusammenarbeit mit industriellen und akademischen Arbeitsgruppen. Beispielhafte Anwendungen sind in Abb. 1 und 2 dargestellt.

Abbildung 1 zeigt dabei zwei Beispiele für die Dünnschichtanalyse zur Qualitätskontrolle von Produktionsprozessen. Der erste Anwendungsfall präsentiert Beschichtungen von Brennstoffzellen, die eine attraktive Zukunftstechnologie zur Energie-umwandlung / Stromgeneration sind. Dennoch hat sich diese Technologie nicht durchsetzen können. Ein Problem dabei ist Komplexität und die Zuverläs-sigkeit der Produktionsprozesse. Mit THz Strahlung konnte erstmalig mit einer nichtdestruktiven kon-taktfreien Methode die Qualität und Homogeni-tät der mittels Plasmasprayverfahren hergestellten Brennstoffzellen Schichten demonstriert werden. Das zweite Beispiel zeigt die berührungslose Cha-rakterisierung von Silizium Carbid Wafern. Dieses Material hat ein enormes Potenzial für Leistungs- und Hochfrequenzbauelemente. Dennoch ist die Waferqualität schlecht. Mit THz Strahlung kann berührungsfrei die Homogenität von epitaktischen Schichten besser kontrolliert werden.

Ein weiteres Beispiel für die Anwendungsbreite der THz Strahlung ist dessen potenzieller Einsatz zur medizinischen Diagnostik für die Krebsfrüherken-nung. Eine Vielzahl von analytischen Verfahren zur Früherkennung von Tumoren ist in der Vergangen-heit entwickelt worden. Dennoch bleibt bis dato die Exzission und der histopathologische Befund, die

einzige zuverlässige Art, Tumore zu identifizieren. Dies ist mit großen Kosten für die medizinische Ver-sorgung verbunden, da für die zuverlässige Diag-nose jeder Patient zur Extraktion von Proben schon bereits einmal vor den eigentlichen Eingriffen ope-riert werden muss. Es existiert daher ein enormes Interesse an effizienteren diagnostischen Verfahren – Stichwort „optische Biopsie“. Wie in Abb. 2 dar-gestellt kann THz Strahlung potenziell zur Tumora-nalyse eingesetzt werden. Die bisherigen Analysen sind viel versprechend, da ein großer Kontrast von gesundem und krankhaft verändertem Gewebe beobachtet wird, z.B. wird bei Schleimhaut in der Trachea eine zweifach stärkere Absorption von normalem Gewebe im Verhältnis zu Tumorgewebe beobachtet (s. Abb. 2b). Wesentlich detailliertere Untersuchungen werden jedoch in Zukunft noch notwendig sein, bevor entschieden werden kann, ob THz Verfahren bessere analytische Möglichkei-ten als konkurrierende Verfahren eröffnen.

Kontakt:

Prof. Dr.-Ing. Peter Haring BolívarTelefon: 02 71 /7 40 - 44 23Fax: 02 71 /7 40 - 24 10E-mail: [email protected]: http://www.hqe.fb12.uni-siegen.de/

Page 12: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

22 23

Ausgewählte Themenfelder: Computergraphik & Echtzeitvisualisierung

Die zunehmende Qualität computergenerier-ter Bilder eröffnet effektive Möglichkeiten der Informations- und Wissensvermittlung. Durch interaktive Graphikprogramme werden auf kommunikative und explorative Art Prozesse verschiedenster Anwendungsgebiete unter-stützt und verbessert.

Die kontinuierlich ansteigende Leistungsfä-higkeit, Flexibilität und Funktionalität von Graphikhardware für PCs ermöglicht die effiziente Umsetzung von Anwendungen, ins-besondere von Darstellungstechniken, Verar-beitungsalgorithmen, Simulationen und Ana-lysetechniken auf dem Graphikprozessor.

Im Kontext der Beleuchtungsberechnung werden Material-Licht Interaktionen simuliert und in interaktive Graphikanwendung inte-griert. Hierdurch können beispielsweise vir-tuelle Objekte mit realistischen Materialien belegt und interaktiv dargestellt werden.

Zudem kommen Verfahren zur Analyse realer Sensordaten zur Ableitung von Beleuchtungs- und Materialparameter realer Objekte zum Einsatz.

Das Fachgebiet der Geometrischen Model-lierung befasst sich mit der Rechner-internen Repräsentation von darzustellenden Objek-ten. Dies umfasst neben konkreten Daten-strukturen vor allem die Generierung, Verar-beitung und Aufbereitung der Modelle z.B. aus Sensordaten. Hierbei spielen Optimie-rungstechniken zur anwendungsspezifischen Erzeugung vir tueller Modelle eine wichtige Rolle.

Die Visualisierung beschäftigt sich mit der graphischen Darstellung wissenschaftlicher Daten, wie sie in der Medizin, den Natur- und Ingenieurwissenschaften durch Messung oder numerische Simulation entstehen. Die Herausforderung an die Computergraphik ist dabei die Entwicklung echtzeitfähiger Al-gorithmen mit intuitiven Möglichkeiten der Benutzerinteraktion, sowie die Verarbeitung sehr großer Datenmengen.Virtual Reality/Augmented Reality (VR/AR) stellt ein Querschnittsthema dar, zu dem alle anderen Forschungsthemen der Com-putergraphik einen direkten Bezug haben. Ziel ist es, den Nutzer als aktiven Teilneh-mer auf Basis seiner Wahrnehmungssyste-

me in die Anwendung zu integrieren. Dies ermöglicht anwendungsspezifische Be-wertungsmöglichkeiten geplanter oder vorhandener Objekte oder Abläufe, wie bei-spielsweise in der Architektur, der Medizin oder bei Design-Prozessen.

Kontakt:

Prof. Dr. Andreas KolbTelefon: 02 71 /7 40 - 24 04Fax: 02 71 /7 40 - 33 37E-mail: [email protected]: http://www.cg.informatik.uni-siegen.de/

Computergraphik & Echtzeitvisualisierung

Ausgewählte Themenfelder: Optische Aufbau- und Verbindungstechnik

Mit zunehmender Leistungsfähigkeit und Verarbeitungsgeschwindigkeit integrierter Schaltkreise wie z.B. Mikroprozessoren stei-gen auch die Anforderungen an die Verbin-dungen innerhalb elektronischer Geräte hin-sichtlich der Bandbreite bzw. der Datenrate. Das Datenrate-Länge-Produkt elektrischer Verbindungen ist durch physikalische Effekte wie z.B. den Skineffekt limitiert, sodass ein Engpass entsteht, der die Leistungsfähigkeit eines Systems trotz sehr hoher Prozessorleis-tung limitiert. Dieser Engpass kann durch den Einsatz optischer Verbindungen aufgehoben werden.

Der Forschungsschwerpunkt des Instituts für Theoretische Elektrotechnik und Photonik ist die Entwicklung der optischen Aufbau- und Verbindungstechnik für den Einsatz in elek-tronischen Geräten unter Berücksichtigung der technologischen Standards und Toleran-zen der entsprechenden Verbindungshierar-chie. Im Einzelnen werden in enger Zusam-menarbeit mit der Industrie die folgenden Themenfelder bearbeitet:

• Entwurf, Modellierung und Analyse aktiver optischer Komponenten (z.B. Laser- und Photodioden),

• Modellierung, Analyse und Entwurf passi-ver mikro-optischer und integriert-optischer Komponenten (z.B. Koppler, Wellenleiter, diffraktiver und refraktiver Komponenten),

• Entwicklung von Entwurfsregeln sowie Feldberechnungs- und Simulationsverfah-ren zur genauen Analyse, Optimierung und Entwurfsunterstützung von mikro-optischen und integriert-optischen Verbindungen und Architekturen,

• Entwicklung optischer Komponenten, op-tischer Verbindungen und optischer Archi-tekturen auf Chip-, Modul-, und Systeme-bene.

Darüber hinaus werden im Institut auch ana-lytische und numerische Verfahren zur Be-rechnung elektromagnetischer Felder entwi-ckelt.

Kontakt:

Prof. Dr.-Ing. Elmar GrieseTelefon: 02 71 /7 40 - 33 55E-mail: [email protected]: http://www.itp.fb12.uni-siegen.de/

Optische Aufbau- und Verbindungstechnik

Page 13: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

24 25

Ausgewählte Themenfelder: PMD-Technologie

Entscheidende Fortschritte bringen den Durchbruch bei der 3D-Kameraentwicklung

Nach über 25 Jahren Forschung und Entwick-lung auf dem Gebiet der Optoelektronik und Photonik ist Prof. Dr. Rudolf Schwarte mit sei-ner Siegener Forschergruppe ein Durchbruch im Bereich des 3D-Sehens gelungen. Mit neu-artigen, einfachen Halbleiterstrukturen ist ein Quantensprung in der technischen Realisier-barkeit von Laserradars und 3D-Bildsensoren erreicht worden.

Multisensorlösung mit tausenden von Pho-to-Misch-DetektorenDiese neuen optoelektronischen Halbleiter-chips sind mittels eines simplen, technischen Kunstgriffes in der Lage, das von einem Objekt reflektierte Lichtsignal vieltausendfach paral-lel zu detektieren und noch in der Halbleiter-struktur direkt eine räumliche Information zu gewinnen. Das Verfahren wird als sogenannte Photonen-Mischung bezeichnet, die dazuge-hörigen Sensoren als PMD - Photonic-Mixer-Device (Photo-Misch-Detektor). So kann mit diesen optoelektronischen Sensoren eine 3D-Information des Raumes über Lichtechos in Echtzeit ermittelt werden. Von besonderer Be-

deutung ist eine Verringerung des technischen Aufwands um Größenordnungen und zugleich der Messfehler und Kosten. Erfolgreich demonstriert wurde bereits die In-tegration von PMD-Detektoren in kompakte Gehäusebauformen für eine 3D-Kamera mit 64x16 Empfangspixel (entspricht 1024 Laser-radar-Empfängern) für schnelle 3D-Bildfolgen. Erfolgreiche Tests mit 160x120 Pixel wurden ebenfalls durchgeführt.

AnwendungenDie mit der PMD-Technologie mögliche pixel-weise Korrelationsmessung kann neben der Benutzung als 3D-Sensor auch Anwendungen im Bereich der jeweils mehrdimensionalen, op-tischen Analyse chemischer und biologischer Prozesse, der optischen Messtechnik und der Signalverarbeitung finden. Hervorzuheben ist auch die Anwendung der PMD-Technologie im Bereich der optischen Kommunikationstechnik. Ein weiteres interessantes Einsatzgebiet für die PMD-Technologie ist die Verbesserung der ak-tiven und passiven Sicherheit im Automobil. So wird PMD bereits heute für die Entwicklung von Systemen zur Optimierung von Airbag-Syste-men durch eine räumliche Detektion der Insas-senposition eingesetzt. Für die Vision eines un-

fallvermeidenden Autos ist die PMD-Sensorik aufgrund der 3D-Umfelderfassung in Echtzeit eine Schlüsseltechnologie.

Weltweit führende TechnologieExperten sind sich sicher, dass nach dem Sie-geszug der Elektronik nun die Zeit der Pho-tonik und Optoelektronik anbricht. Heute ist Deutschland gerade auf diesen beiden Ge-bieten z.T. noch führend. Mit Innovationen wie dem PMD und den damit verbundenen viel-fältigen Anwendungsmöglichkeiten im Bereich des 3D-Sehens für Sicherheit und Automation wird hier eine führende Rolle unterstrichen, die bei konsequenter Nutzung ein hohes Potenzial für innovative Produkte und für die nachhaltige Schaffung von Arbeitsplätzen bietet.

Kontakt:

Prof. Dr.-Ing. Rudolf Schwarte Telefon: 02 71 /7 40 - 33 30Fax: 02 71 /7 40 - 45 29E-mail: [email protected]: www.nv.et-inf.uni-siegen.de/inv/start.htm

PMD-Technologie

Ausgewählte Themenfelder: Abbildende Systeme mit durchdringender Strahlung – Die Compton-Kamera

Abbildende Systeme mit durchdringender Strahlung – Die Compton-Kamera

Die Erzeugung von Bildern mit durchdringender Strah-lung ist seit Röntgens Enteckung der nach ihm benann-ten Strahlen wohl das wichtigste Verfahren, um innere Strukturen von undurchsichtigen Körpern sichtbar zu ma-chen. Die Anwendung umfassen fast alle Bereiche der Forschung, medizinischen Diagnostik und zerstörungs-freien Werkstoffprüfung bis hin zu Sicherheitssystemen. Es gibt aber eine Reihe von Anwendungen, bei denen die Durchdringungskraft der Röntgenstrahlen nicht aus-reicht und elektromagnetische Strahlen noch höherer Energie – Gammastrahlen – besser geeignet sind.

Bedauerlicherweise existieren für Röntgen- und Gam-mastrahlen jedoch keine Linsen und eine Kamera im klassischen Sinn kann daher nicht realisiert werden. Da-her wird ein neues Verfahren entwickelt, bei dem der Compton Effekt ausgenutzt wird. Die darauf basieren-de Compton-Kamera verwendet ein Abbildungsprinzip, wie eine normale Linse: jedem Auftreffort wird ein Win-kel zugeordnet, durch Vermessung der Wechselwirkung des Gammastrahles mit einem geeigneten Detektor, der an die Stelle der Linse tritt. Die Gammastrahlung kann dann diesen Detektor durchdringen, verliert dabei jedoch etwas Energie und wird aus der ursprünglichen Richtung abgelenkt. Misst man daher die bei der Streu-ung verlorene Energie, so kann man den Streuwinkel rekonstruieren. Kennt man aus zusätzlichen Messungen auch den Ort des einfallenden Gammastrahls und den

Ort der Absorption des gestreuten Gammastrahls in einem zweiten Detektor, so kann man jeden einzelnen dieser Gammastrahlen in das Objekt zurückverfolgen.

Im Rahmen einer Serie von Forschungsprojekten zur Compton-Kamera in Siegen wurde ein neuer Detektor-Typ, der Silizium Driftdetektor untersucht. Dieses Bauteil wurde ursprünglich am Halbleiterlabor des Max-Planck-Instituts für extraterrestrische Physik in München für eine Mission in der Röntgenastronomie entwickelt und unter-scheidet sich von seinen Artgenossen dadurch, dass die im Detektor durch Ionisation freigesetzte Ladung nicht sofort gesammelt, sondern erst auf Bahnen läuft, die durch elektrische Felder vorgegeben werden, um dann in einem besonders empfindlichen Transistor auf dem Detektor aufgenommen zu werden. Das Verfahren hat zwei ganz wesentliche Vorteile: • die Elektronen können lange Wege zurücklegen,

daher werden nur verhältnismäßig wenige Auslese-kanäle benötigt

• weiterhin kann die sehr empfindliche Auslese mit dem speziellen integrierten Transistor das schwache Signal des Compton Elektrons gut messen.

Solch ein System mit insgesamt 19 Kanälen wurde in Siegen aufgebaut und mit Gammastrahlen getestet. Schließlich konnte gezeigt werden, dass eine Winkelauf-lösung von kaum mehr als einem Grad gut messbar ist. Damit ist weltweit erstmals gezeigt worden, dass die-

se magische Grenze mit einem realen Detektor unter den für eine diagnostische Anwendung erforderlichen Bedingen erreicht werden kann. Als erste Anwendung der Compton-Kamera ist vorgesehen, Bilder von In-tensitätsverteilung von Radionukliden in menschlichen Körper darzustellen. Ein dringender Bedarf ist in der Nuklearmedizin, in der radioaktive Substanzen zu diag-nostischen Zwecken genutzt werden, schon seit länge-rem erkannt worden. Moleküle, die am menschlichen Stoffwechsel teilhaben, werden an Gammastrahlung emittierende Radionuklide angekoppelt und anschlie-ßend in den Kreislauf injiziert. Die Beobachtung der Häufigkeit und des räumlichen Verteilungsmusters der ausgesandten Strahlung erlaubt die in vivo Bestimmung von Größen wie Aufnahmerate, Verweildauer und Kenntnis darüber, welche Organe beteiligt sind.Neben dem Studium der allgemeinen Physiologie tritt als wichtige Anwendung der Nuklearmedizin die Diagno-se von Krankheiten bei der Aufspürung von bösartigen Tumoren und auch die Funktion der Schilddrüse, von Lungen, der Nieren, des Herzmuskels, des Gehirns.

Kontakt:

Prof. Dr. rer. nat. Albert H. WalentaTelefon: 02 71 /7 40 - 35 30E-mail: [email protected]: http://deph.physik.uni-siegen.de/

Page 14: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

26 27

Ein Schwerpunkt der Arbeitsgruppe unter der Leitung von Dr.-Ing. Jürgen Wahrburg be-schäftigt sich mit computergestützten Verfah-ren in der Chirurgie. In enger Kooperation mit Medizinern und Industriepartnern werden die Komponenten des universellen Chirurgie-As-sistenzsystems modiCAS® entwickelt, das alle Schritte eines chirurgischen Eingriffs von der Planung bis zur Ausführung unterstützt.Das grundlegende Konzept des Systems be-steht in der computer- und roboterassistierten Unterstützung des Operateurs vor und wäh-rend des Eingriffs. Dazu gehören die Integra-tion eines Navigationssystems und eines Ro-boterarms. Das Navigationssystem dient der Registrierung der Patientenanatomie, wäh-rend der Roboterarm als mechatronische Er-gänzung der Navigation zur Nachführung und Positionierung der chirurgischen Instrumente eingesetzt wird.

AufgabenstellungDurch medizinische Fortschritte und den Ein-satz neuer Technologien, die auf computerge-stützten Verfahren, intraoperativer Messtech-nik und innovativer Mechatronik basieren, werden herkömmliche Operationsverfahren in allen chirurgischen Gebieten zunehmend durch neue Ansätze ergänzt oder abgelöst. Die Herausforderungen für Ärzte und Ingeni-eure liegen darin, Potenzial und Vorteile die-ser Ansätze bestmöglich auszunutzen.

LösungsansatzDas modiCAS Systemkonzept beruht auf ei-nem Ansatz, der gekennzeichnet ist durch einerseits konsequente Modularisierung, die eine flexible Anpassung an unterschiedliche Anwendungen sowie verschiedene Wünsche der Benutzer ermöglicht, andererseits eine ein-heitliche, durchgängige Benutzerschnittstelle, die bei allen Modulen eingesetzt wird und die Systembedienung auch bei Änderungen oder Erweiterungen wesentlich erleichtert.

Der Lösungsansatz folgt drei besonderen Vor-gaben:

KomponentenAls integrale Lösung umfasst modiCAS® fol-gende Komponenten:

• Softwarepaket zur computergestützten prä-operativen Planung chirurgischer Eingriffe auf der Basis von Röntgen-, CT- oder MR-Aufnahmen

• Basisfunktionalität eines Navigationssystems, mit dem

die Patientenanatomie erfasst und mit dem prä-operative Bilddaten abgeglichen werden,

die räumliche Position der chirurgischen In-strumente in die präoperativen Planungsbilder eingeblendet wird, um dem Operateur auf dem Bildschirm die korrekte Instrumentenführung anzuzeigen.

Neben optischen 3D-Lokalisiersystemen wird modiCAS® zukünftig auch C-Bogen- und Ul-traschallgeräte einbeziehen.

Mechatronik und Medizintechnik

Interaktives Assistenz-RobotersystemDer Assistenz-Roboter beruht auf einem völlig neuen Konzept, das sich grundlegend von bis-her eingesetzten Chirurgie-Robotersystemen unterscheidet und deren Nachteile vermeidet.

Interaktive Bedienung und manuelle Füh-rungsmöglichkeit des RobotersDas System arbeitet nicht vollautomatisch, sondern unterstützt den Operateur bei den Arbeitsschritten, wo die menschlichen Fähig-keiten an ihre Grenzen stoßen.

Automatische PatientenverfolgungDer Assistenz-Roboter kann kleinen Patien-tenbewegungen in Echtzeit folgen und damit die Ausrichtung des chirurgischen Instruments zum Patienten immer konstant halten. Eine rigide Fixierung des Patienten ist nicht mehr erforderlich.

Vorteile gegenüber reinen Navigationssys-temenDa der Operateur nicht ständig die Blickrich-tung zwischen Operationsgebiet und Naviga-tions-Bildschirm zu wechseln braucht, gibt es keine Abweichungen durch Zittern oder unge-wolltes Abrutschen des Instruments.

ErgebnisseEin Prototyp des Systems ist in der Hüftchirur-gie bereits mehrfach erfolgreich klinisch ein-gesetzt worden. Derzeit wird das System in en-ger Zusammenarbeit mit klinischen Partnern für die Anwendung auch in anderen chirurgi-schen Disziplinen weiterentwickelt, unter ande-rem in der Unfallchirurgie, der Neurochirurgie und der Hals-, Nasen-, Ohrenchirurgie.

Kontakt:

Dr.-Ing. Jürgen Wahrburg, Akad. Dir.Telefon: 02 71 /7 40 - 44 42Fax: 02 71 /7 40 - 23 36E-mail: [email protected]: www.modicas.de

Ausgewählte Themenfelder: Mechatronik und Medizintechnik Ausgewählte Themenfelder: Mechatronik und Medizintechnik

Page 15: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

28 29

Anwendung von Sensoren in der Fertigungstechnik

Wenn Arbeitsplätze automatisiert werden sollen, weil monotone und belastende Bedingungen vor-liegen, ist es häufig erforderlich, für den maschinel-len Ablauf sensorische Fähigkeiten zu entwickeln. Insbesondere bei Prüfaufgaben in der Produktion können heute Kamera-Sensoren eingesetzt wer-den, die allerdings bei weitem noch nicht mit den Sehfähigkeiten des Menschen vergleichbar sind. Ausgerichtet auf die ganz speziellen Anforderun-gen von bestimmten Prüfaufgaben können derar-tige Sensoren jedoch Erstaunliches leisten und zur Steigerung der Wirtschaftlichkeit in einem Produk-tionsbetrieb beitragen.

Die im Projektbereich „Anwendung von Sensoren in der Fertigungstechnik“ bearbeitenden Projekte befassen sich dementsprechend mit der Entwick-lung von intelligenten Auswerteprogrammen für die Bildverarbeitung und mit der ganzheitlichen Lösung von Prüfaufgaben in der industriellen Pra-xis.

Problemlösungen umfassen häufig die Entwick-lung von geeigneten Beleuchtungsmethoden, eine wirtschaftliche Lösung für die Teilezuführung und die Umsetzung einer Laborlösung in eine Gerä-tetechnik, die den Anforderungen eines Produk-tionsbetriebs gerecht wird. Es geht also um die

Integration von mehreren Funktionsbereichen und Technologien zu einem bestmöglichen Gesamt-system. Insgesamt versteht sich die Arbeitsgruppe als Vermittler zwischen Grundlagenforschung und praktischer Anwendung neuer Technologien. Die intensive Zusammenarbeit mit Produktionsunter-nehmen ergibt einen Technologietransfer in zwei Richtungen: Für die Anwendungspraxis entste-hen neue Problemlösungen aus Erfahrungen der Grundlagenforschung und es werden neue Frage-stellungen aus der Praxis für die Bearbeitung im Forschungsinstitut gewonnen.

Beispiele für die Arbeit des Projektbereiches sind:

• Prüfung der Oberflächen von Metall- und Kunststoffteilen in der Serienproduktion

• Erkennung von Heizkörpertypen in einem auto-matischen Transportsystem

• Prüfung von Zwei-Komponenten-Membranen auf richtige Verbindung

• Maßkontrolle mechanisch bearbeiteter Bauteile• Erkennen von Schweißpositionen an elektri-

schen Widerständen

Ausgehend von den verschiedenartigen Frage-stellungen der Anwendungsprojekte werden all-gemeingültige Fragen zur Methodenentwicklung

aufgegriffen. So wurden die in der Bildverarbei-tung bekannten Algorithmen zur Bildauswertung einer vergleichenden Analyse unterzogen. Die in Softwaremodulen vorliegenden Verfahren stehen für Machbarkeitsuntersuchungen zur Verfügung. Mit seiner Ausstattung an Kamera-Systemen und den erprobten Softwaremodulen für die Bildverar-beitung ist das ZESS in der Lage, Anwendungsfra-gestellungen zur Automatisierung im Rahmen von Machbarkeitsstudien kurzfristig zu klären.

Zukünftige Forschungsarbeiten sind darauf ausge-richtet, die Erkenntnisse der Forschung zur Künst-lichen Intelligenz (KI) auf das Anwendungsgebiet der Oberflächeninspektion zu übertragen, um lernfähige Oberflächeninspektionssysteme entwi-ckeln zu können.

Kontakt:

Prof. Dr.-Ing. Peter ScharfTelefon: 02 71 /7 40 - 22 26Fax: 02 71 /7 40 - 25 42E-mail: [email protected]: http://www.mb.uni-siegen.de/d/ift3/

Ausgewählte Themenfelder: Anwendung von Sensoren in der Fertigungstechnik Laufende und kürzlich abgeschlossene Forschungsprojekte in Multi Sensorics

Laufende und kürzlich abgeschlossene Forschungsprojekte in Multi Sensorics

Sensorgestütztes Entgraten mit Industrierobotern

Rekonfigurierbare Verteilte Systeme für modellbasierte Multisensorlösung

Lernende industrielle Oberflächeninspektion

SyncStamp – Zeitmarken für örtlich weit verteilte Ereignisse

Interferometric Cartwheel – Ein neues SAR-Verfahren

Realitätsnahe Modelle zur Kalibrierung multisensorieller Messdaten im Hinblick auf die Cartwheel-Formation

2D/3D Multisensorkamera für Echtzeitanwendungen

2D/3D-Sensorsimulation – PMD-Sim

Multisensorfusion bei der Kooperation mobiler Roboter

Nichtinvasive Koronarangiographie bei höheren Röntgenstrahlungsenergien mit einem Kontrastmittel auf Gadoliniumbasis

Hochgeschwindigkeitsradiographie

Signaltheoretische Auswertung von Strom- und Spannungsverläufen einer nichtlinearen Kondensatorcharakteristik

OEP-Technologie (Opto-Elektronischer Prozessor) für optimale Verknüpfungen optischer & elektronischer Multikanal-Signale

Page 16: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

30 31

Sensorgestütztes Entgraten mit Industrierobotern Rekonfigurierbare Verteilte Systeme für modellbasierte Multisensorlösungen

Problemstellung und ZielsetzungDie Zielsetzung dieses Vorhabens liegt darin, den Einsatzbereich von Industrierobotern durch die Integration von Sensoren auch auf komplexere Aufgabenstellungen auszudehnen. Erst durch eine geeignete Sensorik wird es ermöglicht, dass der Roboter auf Veränderungen in seiner Umwelt reagieren und seine Bewegungen beispielsweise automatisch an toleranzbehaftete Werkstücke anpassen kann. Die kraftschlüssige Bearbeitung von Werkstücken mit einer vorgebbaren Kon-taktkraft erfordert eine teilweise kraftgeregelte Roboterbewegung, bei der die vorprogrammier-te Trajektorie in Abhängigkeit von Kontur- oder Aufspann-Toleranzen des Werkstückes so ange-passt wird, dass sich die vorgegebene Kontakt-kraft einstellt.

VorgehensweiseBei schnellen Bewegungen des Roboters sind die Zykluszeiten und Zeitkonstanten industrieller Ro-botersysteme zu groß, um online eine Bahnkor-rektur entsprechend der gemessenen Sensorsig-nale auszuführen. Zur Lösung dieser Problematik beschäftigt sich dieses Vorhaben mit der Ent-wicklung von Sensor-Aktor-Systemen, die über eine eigene Rechnersteuerung verfügen und am Flansch der Industrieroboter verschiedener Her-steller befestigt werden können. Sie basieren auf einem 6-dimensionalen Kraft-/Momentensensor und einer hochdynamischen Zusatzachse, auf

der das Bearbeitungswerkzeug montiert wird. Der Sensor erfasst die bei Bearbeitungsprozes-sen (Schleifen, Entgraten) auftretenden Kontakt-kräfte, während die Zusatzachse sehr schnelle Positionskorrekturen des vom Roboter geführten Werkzeuges ermöglicht. Dies führt zu einer teil-weise kraftgeregelten Roboterbewegung, bei der vorgegebene Kontaktkräfte unabhängig von Positionstoleranzen sehr genau eingehal-ten werden. Ein Projektschwerpunkt liegt in der Entwicklung eines leistungsfähigen Reglers auf Basis eines Embedded-PC Systems mit Echtzeit-Betriebssystem, das neben der schnellen Ausfüh-rung von Filter- und Regelfunktionen auch über umfangreiche Visualisierungs- und Dokumenta-tionsfunktionen verfügt.

ErgebnisseDie Umsetzung der erarbeiteten Konzepte erfolgt vor allem im Bereich der maschinellen Werk-stückbearbeitung, da insbesondere im Schleif- und Entgratungsbereich viele Problemstellungen vorliegen, die derzeit noch manuell bearbeitet werden, konnten erst durch sensorgeführte Ro-boter automatisiert werden. Prototypen des von uns konzipierten Sensor-Aktor-Systems sind in verschiedenen industriellen Applikationen erfolg-reich erprobt worden, beispielsweise bei der Ent-gratung und Oberflächenbearbeitung von metal-lischen Guss- und Frästeilen und Kunststoffteilen

sowie bei dem automatisierten Test der Putzköpfe elektrischer Zahnbürsten.

ZusatzentwicklungIn einem ergänzenden Forschungsvorhaben soll zusätzlich die räumliche Kontur der zu bearbei-tenden Werkstücke mit einem 3D-Digitalisiersys-tem aufgenommen und aus den aufgezeichneten Daten automatisch in einem Roboterprogramm erzeugt werden. Auf Basis dieses Programms führt der Roboter dann im zweiten Schritt die sen-sorgestützte Bearbeitung der Werkstücke durch. Diese automatisierte Vorgehensweise kann die bisher in der industriellen Praxis üblichen, weit-gehend manuell ausgeführten Arbeitsschritte zu einem großen Teil ersetzen und so zu einer kostengünstigeren, reproduzierbar genauen Fer-tigung beitragen.

Projektleitung: Dr.-Ing. Jürgen Wahrburg, Akad. Dir.

Kontakt:Jürgen WahrburgTelefon: 02 71 / 7 40 - 44 42Fax: 02 71 / 7 40 - 23 36E-mail: [email protected]

Bei den Arbeiten im ZESS hat sich in der Ver-gangenheit bei einer Vielzahl von Entwicklungen unterschiedlicher, komplexer Multisensorsyste-me gezeigt, dass die Lösungen zwar immer über prinzipiell vergleichbare Verfahren erzielt wurden, aber letztlich auf Grund der anwendungsbezoge-nen Gegebenheiten und spezifischen Methoden zu sehr unterschiedlich realisierten Lösungen mit relativ zeit- und kostenaufwändigen Entwicklungs-projekten geführt haben.

Vor diesem Hintergrund wird das Konzept eines rekonfigurierbaren verteilten Systems vorgeschla-gen. Es soll die Entwicklung von Multisensorsys-temen von der Idee bis zum lauffertigen System durch die Einführung ineinander greifender, flexib-ler Hardware- und Softwarekernels mit den ent-sprechenden Simulationswerkzeugen bei einem minimierten Entwicklungsaufwand erlauben, ohne redundante Entwicklungsarbeit leisten zu müssen. Dabei soll nicht nur die Simulation, sondern vor allem die Validierung der Echtzeitimplementierung im Vordergrund stehen.

Zukünftige modellbasierte, adaptive Systemlösun-gen erfordern auf der Ebene der Signalerfassung, -auswertung und -ausgabe flexible, offene und konfigurierbare Steuerungssysteme. Der Aspekt

Exploration hochvariabler verteilter Systeme unter Einsatz von Multisensorik und Multiaktorik bringt neue Anforderungen mit sich, die von derzeitigen Systemkonzepten nicht erfüllt werden können. Das Projekt „Rekonfigurierbare Verteilte Systeme“ befasst sich daher mit der Erarbeitung von verteil-ten Signalerfassungs-, Signalverarbeitungs- und Steuerungstechnischen Konzepten und deren Re-alisierung unter dem besonderen Aspekt der Mul-tisensorik/ -aktorik. Die daraus hervorgehenden Problemlösungen werden anschließend durch ihre Anwendung in den zur Verfügung stehenden bzw. noch zu erweiternden Anwendungsfeldern wie z.B. verteilte bildgebende Systeme, mobile autonome Systeme, etc. überprüft.

Projektleitung: Dr.-Ing. Klaus Hartmann Dr. rer. nat Wolfgang Weihs

Beteiligte:

Dipl.-Ing. Arnd Sluiter

Kontakt:

Dr.-Ing. Klaus HartmannTelefon: 02 71 / 7 40 - 23 35Fax: 02 71 / 7 40 - 23 36E-mail: [email protected]

Laufende und kürzlich abgeschlossene Forschungsprojekte in Multi Sensorics: Sensorgestütztes Entgraten mit Industrierobotern Laufende und kürzlich abgeschlossene Forschungsprojekte in Multi Sensorics: Rekonfigurierbare Verteilte Systeme für modellbasierte Multisensorlösungen

Page 17: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

32 33

Laufende und kürzlich abgeschlossene Forschungsprojekte in Multi Sensorics: Lernende industrielle Oberflächeninspektion

Lernende industrielle Oberflächeninspektion

Es handelt sich um ein gemeinsames For-schungsprojekt zur Schaffung der Grundlagen für ein automatisches optisches Inspektionssys-tem mit Lernfähigkeit zur Erkennung von Ober-flächenfehlern mit Hilfe von Gestaltmerkmalen.

Bei der eigenen Entwicklung von Bildverarbei-tungssystemen für die industrielle Anwendung und beim Einsatz der Prüfeinrichtungen in Produktions-betrieben haben die Antragsteller verschiedent-lich die Grenzen der bisher verfügbaren Technik erkannt.

Eine entscheidende Bedingung für eine erfolgrei-che Lösung der Oberflächeninspektion ist heute, dass die Fehlerarten in ihrer optischen Erschei-nung eindeutig definiert sein müssen und dass der geometrische Bezug der Bildverarbeitung zu den einmal festlegten Musterteilen sich im Lauf des Be-triebes nicht (wesentlich) verändern darf.Die im praktischen Betrieb erkannten Schwachpunkte und Probleme derzeitiger Systeme können weitgehend behoben wer-den, wenn dem Prüfsystem eine dem Men-schen analoge Lernfähigkeit gegeben wäre. Ziel dieses Vorhabens ist es, den prinzipiellen Auf-bau eines lernfähigen Systems für die optische

Oberflächeninspektion zu erforschen und auch in Form eines Prototyps zu entwickeln. Wesentli-ches Element eines lernfähigen Systems ist eine Wissensbasis und ein Regelwerk, das zur Auswer-tung der Bildinformationen dient. Es soll geklärt werden, wie die Inhalte und die Struktur dieser beiden Kernfunktionen eines lernfähigen Systems beschaffen sein sollen.

Projektleitung:Prof. Dr.-Ing. Peter Scharf Prof. Dr.-Ing. K.-D. Kuhnert

Beteiligte:

Dipl.-Wirt.-Ing. Olaf Kissing Dipl.-Ing. Martin Laurowski

Kontakt:

Prof. Dr.-Ing. Peter ScharfTelefon: 02 71 / 7 40 - 22 66Fax: 02 71 / 7 40 - 25 42E-mail: [email protected]

Kameraaufnahme eines Prüfobjektes mit markiertem Oberflächenfehler

Extrahierte Konturen der Objektoberfläche Freigestellte Konturen des Oberflächenfehlers

Laufende und kürzlich abgeschlossene Forschungsprojekte in Multi Sensorics: SyncStamp – Zeitmarken für örtlich weit verteilte Ereignisse

SyncStamp – Zeitmarken für örtlich weit verteilte Ereignisse

Ein immer wiederkehrendes Problem bei der Sensor-Datenaufzeichnung ist ihre Zuordnung zu genauen Zeiten und Orten. Dies ist vor al-lem dann kritisch, wenn man das gleichzeiti-ge Auftreten von Ereignissen zwar vermutet, aber nicht so einfach nachweisen kann, weil keine ständige Verbindung zwischen den auf-zeichnenden Stationen besteht und damit die üblichen Standards für genaue Zeitsynchroni-sierungen (NTP, IEEE1588) nicht anwendbar sind.

Das hier beschriebene SyncStamp System dient dazu, Daten von Sensoren mit Zeit- und Posi-tionsangaben zu markieren. Zeit und Position werden über das Satellitennavigationssystem GPS (Global Positioning System) bestimmt, wobei nicht nur eine gute Positionsbestimmung angestrebt wird, sondern auch eine besonders hohe zeitliche Auflösung (ca. 100 Nanosekun-den). Dazu hat SyncStamp einen temperatur-stabilisierten internen Zeitgeber, der mit den hochgenau verfügbaren Sekundentakten eines GPS-Empfängers synchronisiert wird. Im be-schriebenen Fall wird er mit 10 MHz betrieben. Sein jeweiliger Momentanwert dient als Zeit-marke und wird den eingehenden Datensätzen der Sensoren hinzugefügt.

Die dazu notwendige Elektronik wurde in einem FPGA (Field Programmable Gate Array) imple-mentiert, der sowohl den Datentransport zu ei-nem Computer, als auch die Synchronisation mit dem GPS-Empfänger durchführt. Auf diese Weise werden Daten von mehreren räumlich getrennten Stationen zunächst in einem Festwertspeicher auf-gezeichnet, um sie zu einem späteren Zeitpunkt gemeinsam zu analysieren.

Projektleitung:Dr. rer. nat.Wolfgang Weihs Dr.-Ing. Klaus Hartmann

Beteiligte:

Dipl.-Ing. Arnd Sluiter

Kontakt:

Dr. rer. nat. Wolfgang WeihsTelefon: 02 71 / 7 40 - 24 38Fax: 02 71 / 7 40 - 23 36E-mail: [email protected]

Page 18: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

34 35

Laufende und kürzlich abgeschlossene Forschungsprojekte in Multi Sensorics: Interferometric Cartwheel – Ein neues SAR-Verfahren

Das „interferometrische Cartwheel“ besteht aus einer Anordnung von einem „SAR-Beleuchter“-Satelliten und 3 oder mehr kleinen (passiven) SAR-Empfänger-Satelliten, die sich auf ähnlichen Orbits um die Erde bewegen (SAR = Synthetic Aperture Radar). Während als Beleuchter ein be-reits im Orbit befindlicher SAR-Satellit verwendet werden kann, liegen alle Empfänger-Orbits in der gleichen Orbit-Ebene und weisen identisch gro-ße Halbachsen und die gleiche Orbitexzentrizität auf, sodass sich für jeden Satelliten exakt gleiche Umlaufzeiten ergeben. Die Perigäumspunkte (Perigäum=erdnächster Punkt) der Kepler’schen Ellipsen, auf denen sich die Satelliten bewegen, sind in gleichen Winkelabständen über einen Kreis in der Orbitebene verteilt. Die Zeitpunkte, zu de-nen sich die Satelliten in ihrem Perigäumspunkt (time of perigee) befinden, sind so gegeneinan-der verschoben, dass die Satelliten sich während eines Erdumlaufs zwar auf unterschiedlichen Aus-schnitten ihrer individuellen Umlaufellipse, aber immer in räumlicher Nachbarschaft befinden. Betrachtet man die Relativbewegung dieser Sa-telliten zueinander, ergibt sich der Eindruck eines Rades, welches um einen virtuellen Mittelpunkt kreist, wobei dieser Mittelpunkt mit näherungswei-se konstanter Geschwindigkeit um die Erde rotiert. Die “Speichen” dieses Rades werden von den

Mittelpunktstrahlen zu den einzelnen Satelliten gebildet (Interferometric Cartwheel = Interfero-metrisches Speichenrad). Die gesamte Anordnung bildet damit eine orbitmechanisch stabile geome-trische Anordnung von Satelliten, welche für die interferometrische multistatische SAR-Bildgewin-nung (SAR=Synthetic Aperture Radar) geeignet ist. Wichtige Anwendungsmöglichkeiten sind die Erstellung von digitalen Höhenmodellen, Abbil-dung von Ozeanströmungen, hochauflösende SAR-Bildgewinnung etc. Anders als etwa bei der SRTM-Mission (Shuttle Radar Topography Missi-on), für die das ZESS die Baseline-Kalibrierung durchgeführt hat, ist die geometrische Anord-nung der Satelliten aufgrund fehlender mechani-scher Kopplung extrem lagestabil und wegen der Verwendung passiver Empfänger-Satelliten ver-gleichsweise kostengünstig. Die räumliche Tren-nung von Sender und Empfänger führt allerdings auf das bisher algorithmisch weitgehend ungelös-te bi- oder multistatische SAR-Verarbeitungspro-blem, die interferometrische Weiterverarbeitung der SAR-Bilder erfordert eine extrem genaue Be-stimmung der relativen und absoluten Positionen der Empfänger-Satelliten, eine Problemstellung vergleichbar mit der Kalibrierung der SRTM-Mis-sion. Vor diesem Hintergrund beschäftigt sich der Projektbereich 2 des ZESS mit der Modellierung

der gesamten Orbitanordnung und exakten Be-schreibung der Geometrie. Als nächster Schritt folgt die multistatische Prozessierung der SAR-Da-ten, welche sich wesentlich als komplexer erweist als die bisher erforschte monostatische SAR-Verar-beitung. Es werden neue Algorithmen entwickelt, die es ermöglichen SAR-Bilder zu prozessieren, wenn Sender und Empfänger unterschiedliche Or-bit- bzw. Geschwindigkeitsvektoren aufweisen. Ein weiterer Aspekt ist die Datenfusion für Cartwheel Kalibrierung.

Projektleitung:

Prof. Dr.-Ing. Otmar Loffeld

Beteiligte:

Dipl.-Ing. Ulrich Gebhardt Dipl.-Ing. Holger Nies

Kontakt:

Dipl.-Ing. Holger NiesTelefon: 02 71 / 7 40 - 27 16Fax: 02 71 / 7 40 - 23 36E-mail: [email protected]

Interferometric Cartwheel – Ein neues SAR-Verfahren

Laufende und kürzlich abgeschlossene Forschungsprojekte : Realitätsnahe Modelle zur Kalibrierung multisensorieller Messdaten im Hinblick auf die Cartwheel-Formation

Realitätsnahe Modelle zur Kalibrierung multisensorieller Messdaten im Hinblick auf die Cartwheel-Formation

In zukünftigen SAR-Missionen geht die Tendenz dorthin, dass immer häufiger passive SAR-Empfän-ger eingesetzt werden sollen, die das ausgesandte Signal eines SAR-Transmitters empfangen. Dabei spielen nicht nur militärische Anforderungen eine Rolle (ein passiver Empfänger ist schwieriger zu orten), sondern auch das reduzierte Gewicht, die Größe und auch die Kosten. Durch das Fliegen mehrerer passiver Empfänger in einer bestimmten Formation erhofft man sich einen Zugewinn an Genauigkeit bei verschiedenen Verarbeitungs-produkten, da sich der Verlauf der Baseline durch einfache Funktionen beschreiben lässt. Außerdem können bei den vorgeschlagenen Satellitenkon-stellationen neue Anwendungsgebiete der SAR-Fernerkundung erschlossen werden. Um diese Vorteile nutzen zu können, müssen aber erst ein-mal neue Prozessierungsalgorithmen entwickelt werden, die auch in der Lage sind, eine extrem komplizierte Geometrie zu verarbeiten. Im Ge-gensatz zu den konventionellen monostatischen Prozessierungsverfahren, deren Geometrie nahe-zu vollständig modelliert ist, müssen für den bis-tatischen Fall komplexere Bewegungsmodelle so dargestellt werden, dass sie sich verarbeiten las-sen. Als eine Voraussetzung für eine möglichst prä-zise Prozessierung von SAR-Szenen ist die genaue Kenntnis der Satellitenposition unverzichtbar. Das

gilt sowohl für die absoluten Positionen in Bezug auf die Erde als auch – im Falle mehrerer Satelli-ten in Formation – für die relativen Positionen zur Ermittlung der interferometrischen Baseline. Des Weiteren können bei den gewählten Satellitenkon-stellationen (z.B. Interferometric Cartwheel) die einfachen Relativbewegungen der Satelliten unter-einander ausgenutzt werden, um die Baselinelän-ge und den Baselinewinkel durch estimationsthe-oretische Ansätze präziser zu ermitteln. Dadurch wird es möglich sein, die Ergebnisse der interfero-metrischen Verarbeitung von SAR-Daten weiter zu verbessern. Dieses Projekt soll einen Betrag dazu leisten, dass die Genauigkeit der Satellitenposition durch Orbitmodellierung gesteigert werden kann. Außerdem sind Grundlagen für die bistatische Prozessierung herzuleiten, welche Ausgangspunkt für eine vollständige Beschreibung der bistatischen SAR-Signalverarbeitung sein sollen.

Projektleitung:Prof. Dr.-Ing. Otmar Loffeld

Beteiligte:

Dr.-Ing. Stefan KnedlikDipl.-Ing. Ulrich GebhardtDipl.-Ing. Holger NiesDipl.-Ing. Valerij Peters

Kontakt:

Prof. Dr.-Ing. Otmar LoffeldTelefon: 02 71 /7 40 - 31 25Fax: 02 71 /7 40 - 23 36E-mail: [email protected]

Terra Sar-X © EADS Astrium

Page 19: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

36 37

Laufende und kürzlich abgeschlossene Forschungsprojekte in Multi Sensorics: 2D/3D Multisensorkamera für Echtzeitanwendungen

Die räumlich dreidimensionale Erfassung einer ganz oder teilweise unbekannten oder zeitveränderlichen Umgebung ist eine Herausforderung für moderne Sensorsysteme. Dreidimensional messende Sen-soren, wie z.B. das Photonic Mixer Device (PMD) oder vergleichbare Systeme, bieten aber konstruk-tionsbedingt nur eine geringe laterale Auflösung im Vergleich zu CCD/CMOS-Bildsensoren mit z.T. Millionen von Pixeln. Mehrere dieser zweidimensio-nal messenden Systeme können zwar auch Höhen-infomationen einer Szene generieren, stoßen aber auf Grund von Komplexität und Rechenaufwand schnell an ihre Leistungsgrenzen. Was liegt daher näher, als die Informationen von diesen beiden Sensortypen, grob aufgelöste Entfernungsdaten und hoch aufgelöste Helligkeitsbilder, miteinander zu verknüpfen, um daraus eine 2D/3D Multisensor-kamera für Echtzeitanwendungen zu entwickeln.

Im Fokus des hier beschriebenen Projektes steht die schnelle Aufnahme von 3D-(Tiefen-)Informationen mittels einer chipbasierten Phasenmessung (PMD-Sensor) und einer damit synchronisierten 2D-Bild-datenerfassung mit CMOS/CCD-Bildsensoren in Verbindung mit einer hardwareunterstützten Signal- und Datenverarbeitung. Ein wesentlicher Aspekt ist dabei die Entwicklung einer echtzeitfähigen System-plattform mit verschiedenen 2D/3D Kameras sowie

die Überprüfung der Leistungsparameter anhand relevanter Anwendungssituationen.

Ein PMD-Sensor kann im Prinzip als ein Array von Photomischsensoren verstanden werden, mit des-sen Hilfe im Lichtlaufzeit-Verfahren Entfernungen gemessen werden. Die zu vermessende Szene wird dazu mit inkohärentem, moduliertem Licht einer Be-leuchtungseinheit bestrahlt. Der PMD-Sensor emp-fängt das von den Objekten der Szene reflektierte, modulierte Licht und korreliert es mit dem Modu-lationssignal der Beleuchtungseinheit. Mit dem Er-gebnis können die Phasenverschiebung und damit die Entfernung bestimmt werden.

Die Möglichkeiten der Fusionierung von 2D- und 3D-Daten und die Qualität der Koregistrierung hängen von der Konzeption und Struktur der Mul-tichip-Kamera ab. Wichtige Aspekte der Bildsen-sor-Beleuchtungskonfiguration und einer aktiven Beleuchtungssteuerung in Verbindung mit den Möglichkeiten der Kalibrierung der Konfigurationen werden untersucht. Bereits vorhandene Erkenntnisse aus dem Bereich des Stereosehens werden genutzt, um mit Hilfe der synchronisierten 2D/3D-Bilderfas-sung deutliche Verbesserungen zu erzielen.

Unter dem Aspekt der Echtzeitfähigkeit werden

neben optimierten Datenfluss- und Datensynchro-nisierungsverfahren neue Möglichkeiten der Bild-datenauswertung entwickelt, die aufgrund der Pixel-synchronisierten 2D/3D-Daten neue Möglichkeiten der Echtzeitbilddatenverarbeitung erlauben. Hier werden verschiedene Aufbauten und Verfahren der chipbasierten Vorverarbeitung auf Basis der im ZESS vorhandenen System on Programmable Chip (SoPC) Technologie untersucht sowie die Verteilung der Bildverarbeitung auf das Embedded System der Kamera und einer nach geordneten Weiterverar-beitung.

Projektleitung:

Dr.-Ing. Klaus Hartmann Dr. rer. nat Wolfgang Weihs

Kontakt:

Dr.-Ing. Klaus HartmannTelefon: 02 71 / 7 40 - 23 35Fax: 02 71 / 7 40 - 23 36E-mail: [email protected]

2D/3D Multisensorkamera für Echtzeitanwendungen

Laufende und kürzlich abgeschlossene Forschungsprojekte in Multi Sensorics: 2D/3D-Sensorsimulation – PMD-Sim

2D/3D-Sensorsimulation – PMD-Sim

PMD-Sensoren liefern vektorielle dreidimensiona-le Messwerte eines 3D-Raums und ermöglichen somit direkt die 3D-Darstellung und Lokalisierung von Objekten. PMD-Sensoren sind selbstbeleuch-tend im Infrarotbereich und können daher auch bei schlechteren Sichtverhältnissen (Nebel, Regen, Dunkelheit) weitgehend zuverlässig arbeiten. Dank dieser Eigenschaften bieten PMD-Bildsensoren ei-nen wesentlichen Vorteil gegenüber 2D-Bildsen-soren. Die Kombination eines PMD-Sensors mit einem lateral hochauflösenden CMOS-Sensor bietet den Vorteil der Kombination von hochauf-gelösten Helligkeitsbildern mit 3D-Helligkeits- und Entfernungsbildern des PMD-Sensors.

Das Ziel dieses Projektes besteht darin, einen Si-mulator für eine 2D/3D-Kamera, basierend auf einer Kombination eines 3D-PMD-Sensors und eines hochauflösenden 2D-CMOS-Sensors zu entwickeln. Der Simulator soll dabei unterschied-liche Sensorgeometrien und konstruktive Designs berücksichtigen können, flexibel parametrierbar sein, alle physikalischen Effekte und auftretenden Störphänomene realitätsgetreu darstellen sowie Test- und Referenzdaten für die nachfolgende Ver-arbeitung liefern. Die mechanischen, optischen und alle anwendungsrelevanten Eigenschaften der verwendeten Sensoren müssen dazu im Simulator

systemtheoretisch präzise beschrieben und reali-siert werden.

Computergestützte 3D-Sensor-Simulationen bie-ten nicht nur eine kostengünstige Alternative zur reellen Aufnahmen, sondern erweisen sich als sehr hilfreich bei der Dimensionierung und Parame-trierung von 3D-Sensoren. Ein solcher Simulator stellt damit eine leistungsfähige Umgebung dar, mit der für alle Anwender, Algorithmenentwickler und Systemplaner, innerhalb und außerhalb des gesamten Antragspaketes, unabhängig vom Ent-wicklungsstand und -fortschritt der PMD-Sensor-hardware reale Testdaten zur Verfügung gestellt werden können. Mit diesen Testdaten können Algorithmen schnell auf ihre Funktionstüchtigkeit untersucht, Systemkonfigurationen auf ihre Eig-nung für eine spezielle Anwendung überprüft und Anwendern der PMD-Technologie vor dem realen Einsatz bereits ein Bild von Leistungsfähigkeit, bzw. Leistungsgrenzen einer bestimmten PMD-Konfigu-ration vermittelt werden.

Projektleitung:

Prof. Dr.-Ing. Otmar Loffeld

Beteiligte:

Dipl.-Ing. Valerij PetersDipl.-Ing. Holger Nies

Kontakt:

Dipl.-Ing. Valerij PetersTelefon: 02 71 / 7 40 - 27 61Fax: 02 71 / 7 40 - 40 18E-mail: [email protected]

Page 20: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

38 39

Mobile Roboter werden im Wasser, in der Luft, auf und unter der Erde, aber auch im Weltall einge-setzt. Der Anwendungsbereich reicht von durch Leitlinien geführte Transportroboter in industriellen Fertigungsstraßen über vom Menschen fernge-steuerte Fahrzeuge bis hin zur Erkundung ferner Planeten durch autonom operierende Systeme, die vorgegebene Ziele ohne weitere menschliche Hil-fe selbständig erreichen können. Zwar beschränkt sich der kommerzielle Einsatz der mobilen Roboter derzeit auf wenige industrielle Einsatzgebiete. Al-lerdings ist in naher Zukunft durch den geplanten Einsatz: • in Servicebereichen, wie in der Gebäudereini-

gung, Abfallentsorgung und im Haushalt, oder • in der Medizintechnik, beispielsweise bei der

Unterstützung behinderter Menschen, • in der Verkehrstechnik (Fahrerüberwachung,

autonomes Fahren), • bei Such- und Rettungsmissionen ein enormes

Potenzial zu erwarten.

Während bisher mobile Roboter vielfach alleine arbeiten, liegt derzeit ein Forschungsschwerpunkt auf der Zusammenarbeit mehrerer Roboter in Gruppen (kooperierende Roboter). Dabei wird den Robotern eine gemeinsame Aufgabe zuge-wiesen, die sie dann selbständig aufteilen und im

Team durch gegenseitige Hilfe lösen. Beispiele aus diesem Bereich sind, neben den bekannten Fuß-ball spielenden Robotern, militärische Anwendun-gen aber auch Such- und Rettungsmissionen.

Durch den Einsatz extrem unterschiedlicher Robo-tertypen, wie Helikopter oder Luftschiffe, Unter-wasserfahrzeuge und erdgebundene Fahrzeuge, werden unterschiedliche Sensoren zur Detektion ähnlicher physikalischer Größen benötigt. Wäh-rend beispielsweise Fahrzeuge oder Luftschiffe zur Positions- und Hindernisbestimmung Rad-Encoder, Kreisel, Beschleunigungssensoren, GPS-Systeme, Infrarot-Abstandsmesser, Radar und Kameras oder andere bildgebende Sensoren benutzen, arbeitet ein Unterwasserfahrzeug hauptsächlich mit Ultra-schall. Die unterschiedlichen Sensorinformationen aber auch die Informationen der verschiedenen, räumlich verteilten Roboter müssen fusioniert wer-den, um eine Positionsbestimmung der Roboter selbst, aber auch fremder Objekte und Ziele zu ermöglichen. Diese aufbereitete Sensorinformati-on kann dann weiter für Navigations-, Steuerungs- und Regelaufgaben verwendet werden.

Projektleitung:Prof. Dr.-Ing. Hubert Roth

Beteiligte: Dipl.-Ing. Jörg KuhleDipl.-Ing. Alexander PrusakDipl.-Ing. Niramon RuangpayoongsakDipl.-Ing. Otto Rösch

Kontakt:Prof. Dr.-Ing. Hubert RothTelefon: 02 71 / 7 40 - 44 39Fax: 02 71 / 7 40 - 43 82E-mail: [email protected]

Multisensorfusion bei der Kooperation mobiler Roboter

Laufende und kürzlich abgeschlossene Forschungsprojekte in Multi Sensorics: Multisensorfusion bei der Kooperation mobiler Roboter

Laufende und kürzlich abgeschlossene Forschungsprojekte in Multi Sensorics: Nichtinvasive Koronarangiographie bei höheren Röntgenstrahlungsenergien mit einem Kontrastmittel auf Gadoliniumbasis

Etwa die Hälfte aller Todesursachen in den indus-trialisierten Ländern ist auf Herzerkrankungen auf Grund von Kalkablagerungen in den Gefäßen und daraus folgender Unterversorgung des Herz-gewebes mit Sauerstoff zurückzuführen. Effektive Behandlung und wirksame Kostenreduzierung hängen von einer möglichst frühen und präzisen Diagnostik ab. Die Koronarangiographie ist der-zeit die einzige Methode, die hierzu ausreichend genaue Aussagen über arteriosklerotische Ver-änderungen erlaubt. Die vorgeschlagene Studie benutzt dabei ein neuartiges Kontrastmittel auf Gadoliniumbasis zur Darstellung der Koronarar-terien. In Verbindung mit einer sehr schonenden Röntgenmethode, der so genannten K-Kanten-Subtraktion erreicht man damit nicht nur eine erhöhte Empfindlichkeit zur Aufspürung von kriti-schen Stenosen. Es besteht weiterhin die Möglich-keit, gleichzeitig noch die Herzdurchblutung zu be-urteilen. Der klinische Nutzen dieser kombinierten Messungen wird sich im Vergleich mit bisher ange-wandten diagnostischen Verfahren herausstellen.

In der vorgestellten Arbeit werden etwa 50 bis 100 Patienten einer nichtinvasiven Koronarangio-graphie unterzogen. Dabei wird der Aufbau der „medical beam line“ BL17 der ESRF (European Synchrotron Radiation Facility) in Grenoble ver-

wendet. Diese relativ hohe Anzahl an Patienten erlaubt die Messung der Sensitivität s von größer als 0.90 für Einzelstenosen und s größer als 0.95 für ein gleichzeitig bestehendes Infarktrisiko. Die Patienten stammen hauptsächlich aus der nä-heren Umgebung von Grenoble, aber auch aus den beteiligten Herzzentren in Hamburg, Dort-mund, Essen und Homburg. Die Verwendung von Gadolinium als Kontrastmittel führt nicht nur zu einer Verringerung des so genannten Abschat-tungsproblems, sondern erlaubt auch gleichzeitig eine höhere Sensitivität. Zusätzlich hat man eine höhere zeitliche Auflösung durch Auswertung von Röntgenfluoreszensen. Überdies wird mit der Ent-wicklung eines Dynamikmodells begonnen, wel-ches die Messung der Herzfunktionalität und der Durchblutung des Herzmuskels möglich machen soll. Es ist geplant 8 Patienten während einer acht-stündigen Tagesschicht in drei Blöcken zu jeweils vier Tagen zu untersuchen. Ein vierter Block ist zu Beginn des experimentellen Aufbaus vorgesehen.

Projektleitung:Prof. Dr. rer. nat. Albert Walenta

Kontakt:

Prof. Dr. rer. nat. Albert WalentaTelefon: 02 71 / 7 40 - 35 30Fax: 02 71 / 7 40 - 35 33E-mail: [email protected]

Nichtinvasive Koronarangiographie bei höheren Röntgenstrahlungsenergien mit einem Kontrastmittel auf Gadoliniumbasis

Page 21: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

40 41

Abbildende Systeme mit durchdringender Strahlung: Hochgeschwindigkeitsradiographie

Laufende und kürzlich abgeschlossene Forschungsprojekte: Abbildende Systeme mit durchdringender Strahlung – Hochgeschwindigkeitsradiographie

Seit einigen Jahren werden erfolgreich elektronische Detektoren zur Aufnahme von Radiographien mit Röntgenstrahlung zur medizinischen Diagnose und zur zerstörungsfreien Werkstoffprüfung verwendet. Diese Systeme werden immer häufiger eingesetzt, da der Bedarf nach dynamischen Aufnahmen sowohl in der medizinischen Diagnostik (Herzdiagnose) als auch der zerstörungsfreien Materialprüfung (bewegte Teile wie Räder, Reifen etc.) ständig steigt. Ein großer Nach-teil gegenüber den bisher verwendeten Aufnahmen mit Bildplatten besteht darin, dass die Ortsauflösung und die Kontrastauflösung Mängel aufweisen und auch die für eine gute Bildqualität erzielbare Zeitauflö-sung nicht ausreicht. Die Verwendung von Synchrotronstrahlung erlaubt nun im Prinzip durch die Steigerung der Brillanz dieser Strahlquellen, Aufnahmen mit optimaler Kontrastau-flösung für Kurzzeitmessung herzustellen, wofür aller-dings die entsprechenden elektronischen Detektoren mit den gewünschten Eigenschaften benötigt werden:• hohe Ortsauflösung im Bereich von 0,1 mm• Aufnahmegeschwindigkeit von 0,001 ms bis 1 ms• Dynamischer Bereich 1: 64.000• Energie 10 keV – 100 keV• Hohe Empfindlichkeit (DQE > 0.5)• Selektion verschiedener Röntgenenergien (Spektro-

skopie)• Großflächiger Detektor (bis zu m2)

Dazu wurden einerseits präzise Zeilendetektoren und andererseits großflächige Vieldrahtdriftkammern mit den gewünschten Eigenschaften entwickelt, bei denen bis zu 1000 parallele Kanäle die anfallende Informa-tion verarbeiten, wodurch die hohe Datengeschwin-digkeit erzielt wird. Eine besondere Signalanalyse (Induktionsdriftkammer, IDC) erlaubt die Ortsbestim-mung einzelner Photonen bis herunter zu 50 µm bei gleichzeitiger Energiemessung (Spektroskopie). Um die hohe Empfindlichkeit zu gewährleisten, werden die Detektoren mit einer Xenon-Gasfüllung bei erhöhtem Druck betrieben. Als erste Anwendungen wurden Aufnahmen in vivo von der Durchblutung des Herzmuskels erstellt (Zeilen-kamera). Die hohe Zeitauflösung garantiert ein schar-fes Bild der mit Kontrastmittel gefüllten Arterien ohne Bewegungsartefakte und die hohe Empfindlichkeit erlaubt sogar, dass die Durchdringung des Herzmus-kels mit dem Kontrastmittel vermessen werden kann. Damit ist prinzipiell eine diagnostische Aufnahme möglich, bei der gleichzeitig die Herzkranzgefäße und die Blutversorgung im Herzmuskel sichtbar werden, was bisher nur mit separaten aufwändigen Messun-gen durchgeführt wird. Die Umsetzung dieser neuen Methode in eine praxisgerechte Anwendung verlangt noch erhebliche weitere Entwicklungen:• Voll integrierte Ausleseelektronik• automatische Struktur- und Bildanalyse

• Entwicklung neuer Rekonstruktionsalgorithmen• Simulation der koronaren Mikrozirkulation und Ent-

wicklung präziser ModelleDie Besonderheit der Detektoren liegt darin, dass die Konversion der Röntgenquanten direkt im Detektor erfolgt und die freigesetzte Ladung als Signal detek-tiert wird, ohne eine optische Kette mit erheblichen Verlusten zwischenzuschalten. Die dadurch erzielte Leistungsfähigkeit ist bisher exemplarisch durch Auf-nahmen am schnell bewegten Herzen belegt worden. Andere Anwendungen können dann ebenfalls in Be-tracht gezogen werden, wie Hirndurchblutung oder Lungendiagnostik. Schließlich sollte dieses Detektor-prinzip in Kombination mit Synchrotronstrahlquellen auch erlauben, zerstörungsfrei Werkstoffe unter dy-namischer Belastung bei hohen Geschwindigkeiten zu testen.

Projektleitung: Prof. Dr. rer. nat. Albert Walenta

Kontakt:

Prof. Dr. rer. nat. Albert WalentaTelefon: 02 71 / 7 40 - 35 30Fax: 02 71 / 7 40 - 35 33E-mail: [email protected]

Common-Rail-Einspritzsysteme mit piezoelektri-schem Antrieb erlauben eine Optimierung von Dieselmotoren bezüglich deren Abgas- und Ge-räuschemission. Einspritzdruck, Einspritzzeitpunkt und Kraftstoffdosierung sind dabei die drei we-sentlichen Parameter, die im Motorkennfeld frei gewählt werden können. Eingesetzt werden dabei Hochleistungs-Multi-Layer-Piezoaktoren, die al-lerdings nur kleine mechanische Auslenkungen liefern können. Um den erforderlichen Hub des Steuerkolbens zum Öffnen des Ventils zu errei-chen, sind im Injektor zusätzliche Stellwegsverlän-gerungen und hydraulische Servokreise erforder-lich, die zu komplexen elektromechanischen und hydraulischen Wechselwirkungen führen. Die ge-naue physikalische Beschreibung des Verhaltens der Piezoelemente im betrachteten Arbeitsbereich und der elektromechanischen und hydraulischen Wechselwirkungen im Injektor gestaltet sich als äußerst komplex und ist weiterhin Gegenstand der Forschung. Die Aufgabe dieses Projektes ergibt sich nun einerseits durch die zusätzliche Berück-sichtigung der Tatsache, dass durch eine erhöhte Realitätstreue bei der Modellierung i.d.R. auch zusätzliche, im allgemeinen aber unbekannte Modellierungsparameter entstehen, deren falsche Wahl oft folgenschwerer ist als nicht modellierte Phänomene (hinsichtlich der Verarbeitungsgü-

te), und andererseits dadurch, dass Lösungen zur Bestimmung des Einspritzzeitpunktes bei der Stromsteuerung des Piezo-Injektors dringend er-forderlich sind: Im Rahmen dieser Studie sollen Methoden zur signaltheoretischen Auswertung von gegebenen Strom-Spannungsverläufen eines Piezopaketes eingesetzt und untersucht werden, die es ermöglichen, Diskontinuitäten im Piezo-Spannungsverlauf zu detektieren. Die erwähnten gesuchten Diskontinuitäten entstehen durch die Kraftrückwirkung beim Öffnen und Schließen der Injektornadel auf den Piezo-Spannungsverlauf. Mit Hilfe von Modellierungsansätzen durch Kal-man-Filter ist es möglich, die Öffnungs-/Schließ-zeitpunkte der Injektornadel exakt zu bestimmen.

Projektleitung:Prof. Dr.-Ing. Otmar Loffeld

Beteiligte:

Dr.-Ing. Stefan Knedlik Dipl.-Ing. Holger Nies Dipl.-Ing. Valerij Peters

Kontakt:

Dipl.-Ing. Holger NiesTelefon: 02 71 / 7 40 - 27 61Fax: 02 71 / 7 40 - 40 18E-mail: [email protected]

Signaltheoretische Auswertung von Strom- und Spannungsverläufen einer nichtlinearen Kondensatorcharakteristik

Laufende und kürzlich abgeschlossene Forschungsprojekte: Signaltheoretische Auswertung von Strom- und Spannungsverläufen einer nichtlinearen Kondensatorcharakteristik

Page 22: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

42 43

OEP-Technologie (Opto-Elektronischer Prozessor) für optimale Verknüpfungen optischer und elektronischer Multikanal-Signale

OEP-Technologie (Opto-Elektronischer Prozessor) für optimale Verknüpfungen optischer und elektronischer Multikanal-Signale

Die Photonik gehört als vereinte Disziplin opti-scher und elektronischer Technologien zweifellos zu den innovativsten Bereichen der wissenschaft-lichen und technischen Entwicklung. Sie benötigt geeignete Komponenten für die OE-Signaldetek-tion und -verarbeitung als unentbehrliches Ver-bindungsglied beider Technologien. Im optisch kohärenten Bereich besteht eine simple Lösung dieses Problems im Photoeffekt: jede Photodiode ist ein ausgezeichneter Mischer für optisch kohä-rent überlagerte Signale und antwortet unmittelbar mit einem elektrischen Ergebnis der zugehörigen Mischung bzw. Korrelation, da die Zahl der Pho-toelektronen dem Quadrat der Gesamtfeldstärke entspricht. Für den optisch inkohärenten Bereich fehlte eine entsprechend einfache OE-Kompo-nente. Sie wurde in vorangegangenen Siegener Uni-Projekten in Form des Photonic Mixer Device PMD gefunden und besteht aus einer Art Dop-pelphotodiode, deren gemeinsamer Photostrom beiden Stromausgängen moduliert zugeteilt und/oder deren Polarität moduliert wird. Die Tragwei-te dieser Entdeckung, besonders der PMD-Matrix als schnelle 3D-Kamera, wurde mit der Nomi-nierung zum Deutschen Zukunftspreis gewürdigt. Ihr Potenzial reicht über die reine Mischer- bzw. Korrelatorfunktion weit hinaus, wie weitere Über-legungen zu Kombinationen von PMD-Pixeln

zeigen konnten: Werden PMD-Pixel nicht einfach parallel betrieben, sondern funktionell verschaltet, so entsteht ein OE-Bauelement, das zusätzliche und völlig neue Funktionen aufweist und extrem schnell (10-100ps-Bereich) programmierbar ist, der Opto-Elektronische Prozessor OEP. Ziel des Forschungsprojektes ist die Verifizierung des OEP-Konzeptes durch die Erarbeitung der funktionellen Grundlagen, Leistungspotenziale und -grenzen mit Hilfe theoretischer, simulativer und experimenteller Untersuchungen einfacher OEP-Grundschaltungen. Auf dieser Basis können die Anwendungspotenziale verantwortungsvoll eingeschätzt und entsprechende Forschungs- und Entwicklungsaufträge ausgesuchter Applikationen angenommen werden.

Projektleitung: Prof. Dr.-Ing. Rudolf Schwarte

Kontakt:

Prof. Dr.-Ing. Rudolf SchwarteTelefon: 02 71 / 7 40 - 33 30E-mail: [email protected]

International Postgraduate Programme (IPP) Multi Sensorics

International Postgraduate Programme (IPP) Multi Sensorics

The Center for Sensorsystems (ZESS) and the Re-search Center for Multidisciplinary Analysis and Applied System Optimization (FOMAAS), co-hos-ting the programme, offer research and education opportunities in all aspects of sensors, multi sen-sor systems, sensor data processing, multi sensor data fusion, simulation and optimization of com-plex sensor systems with applications in nearly any scientific and technical field. The interdisciplinary nature of the offered programme is represented by the member faculties of ZESS and FOMAAS, na-mely Mathematics, Physics, Chemistry, Electrical Engineering, Computational Engineering, Mecha-nical Engineering and Economic Disciplines.

The IPP Multi Sensorics is a project and research oriented postgraduate education programme that qualifies for independent scientific working and professional activities in research as well as in si-milar working fields. A new generation of scientific academics will be supported. One of the main goals is to promote the participants to the german doctoral degree Dr.-Ing. within a period of only three years.

Research Topics for doctoral theses may stem from

• Optical and non-optical imaging sensors (mic-rowave, acoustic, Synthetic Aperture Radar, X-ray imaging devices)

• Micro Sensorics • Processing, information mining and multi sensor

data fusion • Synthetic Aperture Radar (SAR) Processing,

SAR-Interferometry • Modelling, simulation of multi sensor systems,

optimization of complex multi sensor systems • Bistatic SAR Processing• Localization and Navigation• Communication and Synchronization in Sensor

Networks• PMD Processing• System on Programmable Chip Technology

Page 23: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

44 45

Outstanding Features• 3-year programme consisting of intensive re-

search-oriented courses, workshops and chal-lenging research projects, excellent support

• Doctoral degree (Dr.-Ing.) in one of the partici-pating faculties

• no tution fees• no application deadline

Application Requirements• An excellent degree in Electrical or Mechanical

Engineering or Computer Science (Diploma or Master of Science based on a 9-semestrial* stu-dying period)

• Master or Diploma degree holders in Mathe-matics, Physics, Chemistry may be elected, de-pending on study focus and individual educati-onal background

• English proficiency must be proven (TOEFL or IELTS)

• Willingness to attend German language cour-ses during first year (except for German native speakers)

*If based on an only 8 semestrial studying period, the committee decides whether to accept additional qualifications which can be acquired in parallel to IPP Multi Sensorics by attending additional courses and passing the corresponding examinations.

Contact:

University of SiegenD-57068 Siegen, GermanyTel.: +49 271 740 3400Fax: +49 271 740 2336Email: [email protected]

International Postgraduate Programme (IPP) Multi Sensorics

Speaker: Prof. Dr.-Ing. habil. Otmar Loffeld Executive Director: Dr.-Ing. Stefan Knedlik Secretary: Silvia Niet-Wunram

International Postgraduate Programme (IPP) Multi Sensorics – Selected Research Projects

International Postgraduate Programme (IPP) Multi Sensorics – Selected Research Projects

Bistatic Focusing

Processing Parameter Estimation in Bistatic SAR

Time Synchronization

Design of Wireless Sensor Nodes

Image Registration in Remote Sensing

A new multi-chip 2D/3D camera and its special calibration techniques

Distributed Realtime Applications

Smart Vision System Based on Support Vector Machines

Entwicklung von Systemplattformen für Multisensorhardware

GNSS based Positioning and Attitude Determination

Data Fusion in Mobile Wireless Sensor Networks for Positioning

Positioning and Localization System based on PMD (Optical Local Positioning Device)

Stabilization of Bilaterally Controlled Teleoperated Systems in the Presence of Time-Varying Delays

Page 24: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

46 47

Bistatic SAR systems as opposed to monostatic SAR constellations offer some degrees of freedom in choosing transmitter (illuminator) and (passive) re-ceiver motion trajectories. The benefits of such sys-tems include such features like: flexibility, reduced vul-nerability for military applications, ability to use multi level interferometry, possibility to reduce the PRF, etc. The increased flexibility in designing bistatic SAR mis-sions, however, is paid for by an increased complexity with respect to the processing of bistatic SAR raw data to SAR images. While in monostatic SAR case the ge-ometry is readily modeled, and, based on the mod-els, point target response functions are evaluated and carried to the frequency domain by stationary phase techniques, the situation, however, is slightly more complex in the bistatic case: The outcoming range and phase history of any point target consists of the in-dividual range history contributions of transmitter and receiver, where these contributions are coupled by the relative motion between transmitter (illuminator) and receiver. Furthermore the classical monostatic corre-spondence between azimuth frequency and azimuth time being closely related to a certain point on the orbit is broken up, since two motion trajectories must be considered. In [5] the idea of bistatic focusing is considered for the Tandem configuration (transmitter and receiver

are following each other on the same track with some fixed offset, with equal velocities). Initial SAR raw data is convolved with Rocca’s smile operator. In the Tan-dem case this operator is only slowly range variant. After this convolution any monostatic processor can be employed to yield the final result. Another ap-proach for solving the bistatic problem is offered in [6], [7]. Modified monostatic processors like: Range-Doppler, Backprojection, Omega-k processors have been suggested. These algorithms to our understand-ing seem to be employable only for the Tandem and TI case [5].Some other publications on the bistatic focusing problem, are based on intuition, empirical insights or complex numerical methods, but the solution for the general case (GC), when transmitter and receiver move with different velocities on arbitrary trajectories is not available yet.

Our work makes use of the central formula for the bi-static Point Target Reference Spectrum derived in [1].Based on that formula particular processing solutions for each individual case of bistatic geometries, and even for the general case can be found [13]. One of the first results was obtained with bistatic SAR data delivered by FGAN’s airborne SAR systems PAMIR and AER-2, which were flown in a bistatic constella-tion, imaging Oberndorf (am Lech) [6],[7],[9],[10].

Bistatic focusing is part of a cooperation between FGAN’s Institute for High Frequency Physics and Ra-dar Electronics (FHR) and ZESS.

Projektleitung:

Prof. Dr.-Ing. habil. Otmar Loffeld

Beteiligte: M.Sc. Koba Natroshvili

Kontakt:

Prof. Dr.-Ing. habil. Otmar LoffeldTelefon: 02 71 / 7 40 - 31 25Fax: 02 71 / 7 40 - 23 36E-mail: [email protected]

REFERENCES

[1] O. Loffeld, H. Nies, V. Peters, S. Knedlik, ‘Models and Useful Relations for BistaticSAR Processing,’ IEEE Transactions on Geoscience and Remote Sensing, Vol. 42, No. 10, October 2004

[2] O. Loffeld, H. Nies, U. Gebhardt, V. Peters, S. Knedlik, ‘Bistatic SAR - Some Reflections on Rocca‘s Smile’ Proc. EUSAR’04, European Conference on Synthetic Aperture Radar, Ulm, Germany, May 2004

[3] O. Loffeld, A. Hein, ‘SAR Processing by ‘Inverse Scaled Fourier Transformation’, EUSAR’ 96, Königswinter, Germany, 1996[4] O. Loffeld, F. Schneider, A. Hein, ‘Focusing SAR images by Inverse Scaled Fourier Transformation’, Proc. International

Conference on Signal Processing and Communication, Las Palmas, Gran Canaria, 1998[5] D. D’Aria, A. Monti Guarnieri, F. Rocca, ‘Focusing Bistatic Synthetic Aperture Radar using Dip Move Out’, IEEE Trans. Geosci.

Remote Sensing, vol. 42, pp.1362-1376, July 2004[6] J.H. Ender, I. Walterscheid, A. Brennner ‚New Aspects of Bistatic SAR: processing and experiments’. Proc. IGARSS04,

Anchorage, Sept. 2004[7] J.H. Ender, ‘Bistatic SAR Processing’ European conference on synthetic aperture radar (EUSAR’ 04), Ulm, Germany, May

2004, pp. 379-384[8] A.Medrano Ortiz, O. Loffeld, S. Knedlik, H. Nies, K. Natroshvili, ‘Comparison of Doppler Centroid Estimators in Bistatic

Airborne SAR’, submited for IGARSS 2005, Seul, Korea[9] H. Nies, O. Loffeld, K. Natroshvili, I. Walterscheid, A. R. Brenner, ‘Parameterestimation for Bistatic Constellations’, submited

for IGARSS 2005, Seoul, Korea[10] I. Walterscheid, J. H.G. Ender, A. R. Brenner, O. Loffeld; ‘Bistatic SAR processing using an omega-k type algorithm’,

submited for IGARSS 2005, Seul, Korea[11] A. Papoulis, Systems and Transforms with Applications in Optics, McGlaw-Hill,pp203-204, New York, 1968[12] G. Krieger, N. Gebert, A. Moreira, ‘SAR Signal Reconstraction from Non-Uniform Displaced Phase Centre Sampling’, Proc.

EUSAR’04, European Conference on Synthetic Aperture Radar, Ulm, Germany, May2004[13] Natroshvili, K., Loffeld, O., Nies, H., Medrano Ortiz, A., First Steps to Bistatic Focusing, Conf. Proc. IGARSS05, International

Geoscience and Remote Sensing Symposium 2005, Seoul, Korea.

Bistatic Focusing

Bistatic SAR image of Oberndorf (am Lech)

IPP Multi Sensorics – Selected Research Projects: Bistatic Focusing

Raw Data © FHR/FGAN

The Synthetic Aperture Radar (SAR) processing, often referred to as SAR correlation or azimuth compression, consists of image focusing through matched filter integration, detection and multi-look summation [6]. The azimuth resolution is achieved through computer operations on the coherently recorded signal such that the processor is able to function as a large antenna aperture in computer memory, thus realizing azimuth improvement in proportion to aperture size. In order to perform this azimuth compression, we first must estimate several parameters as precisely as possible, the Doppler centroid being one of them. When regar-ding bistatic geometries, Doppler centroids may more likely exceed the pulse repetition rate than in monostatic constellations, which raises the pro-blem of ambiguous Doppler centroid estimates. In bistatic SAR constellations, azimuth power spectral densities are no longer symmetric due to the non necessarily symmetric overlap of transmitter and receiver antenna footprint which in fact imposes certain restrictions on several Doppler centroid estimation techniques. In order to combine accu-racy with efficiency, the comparison of these algo-rithms is carried out considering the importance of using the minimum window size for the analysis of the range-compressed raw data.

In this project, we investigate the performance several Doppler centroid estimators, which are compared with respect to bistatic SAR data. Star-ting from classical approaches (e.g. Correlation Doppler Estimator – CDE) [1], [3], [4] which make use the correlation of the power signal spectra with some weighting function, the analysis is performed on a two dimensional field of sampled range-com-pressed data. Since these algorithms may present Doppler ambiguities, other results are obtained by means of the Radon transform which is a ge-ometry-based Doppler Centroid Estimator (GDE) [2]. As it is known, this approach estimates an am-biguity-free Doppler centroid, and can be made computationally efficient. Since the GDE is a very new technique for the monostatic SAR geometry, our first results with bistatic airborne data are very positive and have been published in [7].

Projektleitung:Prof. Dr.-Ing. habil. Otmar Loffeld

Beteiligte: Ing. de telecomunicación Amaya Medrano Ortiz

Kontakt:

Prof. Dr.-Ing. habil. Otmar LoffeldTelefon: 02 71 / 7 40 - 31 25Fax: 02 71 / 7 40 - 23 36E-mail: [email protected]

References

[1] Madsen, S.N., „Speckle Theory – Modelling, Analysis and Applications related to Synthetic Aperture Radar Data”, Dissertation, Technical University of Denmark, November 1986

[2] Young-Kyun Kong, Byung-Lae Cho, Young-Soo Kim, “Ambiguity-free Doppler Centroid Estimation Technique for Airborne SAR using the Radon Transform”, IEEE Trans. Geosci. Remote Sensing, vol. 43, pp. 716-721, April 2005

[3] O. Loffeld, “Doppler Centroid Estimation with Kalman Filters”, Proceedings of the IGARSS’90, pp. 1309-1312, Washington, May 1990

[4] O. Loffeld, “Estimating Time Varying Doppler Centroids with Kalman Filters”, Proceedings of the IGARSS’91, vol. 2, pp. 1043-1046, Helsinki, Juny 1991

[5] O. Loffeld, “Estimating Range and Time Varying Doppler Centroids with Kalman Filters”, Proceedings of the IGARSS’93, vol. 3, pp. 1210, Tokyo, August 1993

[6] J. C. Curlander, R. N. McDonough, “Synthetic Aperture Radar”, John Wiley & Sons, 1991[7] Medrano Ortiz, A., Loffeld, O., Knedlik, K., Nies, H., Natroshvili, K., Comparison of Doppler Centroid Estimators in Bistatic

Airborne SAR, Conf. proc. IGARSS05, International Geoscience and Remote Sensing Symposium 2005, Seoul, Korea

Processing Parameter Estimation in Bistatic SAR

IPP Multi Sensorics – Selected Research Projects: Processing Parameter Estimation in Bistatic SAR

Page 25: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

48 49

Local clock 2

Local clock 1Perfect clock

Standard Time Scale (UTC)

Loca

l Tim

e

Recently, increasing research attention has been directed towards Wireless Sensor Networks (WSNs): collections of small, low-power nodes physically situated in the environ-ment that can intelligently deliver information to the user. Time synchronization is one of the critical pieces of infra-structure for such a distributed sensor system. Precise time synchronization is needed for a variety of sensor network tasks such as data fusion, TDMA scheduling, localization, and coordinated actuation. In sensor networks the clock accuracy and precision requirements are often stricter than in traditional distributed systems; strict energy cons-traints limit the resources available to meet these goals. Therefore, the question is how we can achieve the best possible clock synchronization for a given set of receivers, but not to build a more deterministic receiver. We are ac-tively involved in developing synchronization algorithm for the following two applications:

1. Clock synchronization for Wireless Sensor Networks The recent Reference Broadcast Synchronization (RBS), introduced by J. Elson [1], intends to synchronize a set of receivers with one another as opposed to traditional pro-tocols in which transmitters synchronize with receivers. In RBS scheme, nodes periodically send messages to their neighbours using the network physical-layer broadcast. Recipients use the message’s arrival time as a point of reference for comparing their clocks. The message con-tains neither explicit time stamp, nor is it important exactly

when it is sent. Based on RBS, each node in the network will perform a least-squares linear regression to obtain the relative clock offset (intercept) and skew (slope). This offers a fast and close form method for finding the best fit line through the phase error observations over time. The disadvantage of RBS is that it can only provide an off-line processing. Moreover, the actual clock model is generally not linear and therefore, using linear regression will no more produce accurate estimates. Instead of using linear regression, Kalman Filter (KF) is introduced for the estimation of clock parameters. KF does not require all previous data to be kept in the memory and reprocessed every time a new measurement is taken or equivalent to saying that it can perform online estimation. There are two aspects that RBS does not entirely investi-gate which are global consistency and optimal precision. For these two aspects, KF is considered as a very promi-sing algorithm to ensure both conditions. The problem of clock’s parameter estimation will also be extended to the more general case in which the frequency drift will also be included as one of the estimates. Furthermore, the clock offset and skew will be treated simultaneously by KF as opposed to the related work in [2] where the optimal esti-mator is first developed, assuming only clock offsets and no clock skews. Then they apply the estimator to optimally estimate clock skew using different information.

2. Clock synchronization for Bistatic SAR Networks

Phase and frequency information for some Bistatic SAR configurations like e.g. Interferometric Cartwheel are very important. These configurations can be also considered as distributed sensor networks and therefore, KF is also introduced here to estimate clock parameters of such systems. In satellite networks some constraints can be relaxed, for example energy constraint, which will make synchronization problem less complicate. For larger satel-lite network topology, the mentioned techniques in [1] will be applied to ensure the global consistency and optimally precise conditions.References[1] J. Elson, L. Girod and D. Estrin, “Fine-Grained network time synchronization using reference broadcasts”, in Proceedings of

the fifth symposium on operating systems design and implementation, Boston, MA. Dec. 2002. [2] R. Karp, J. Elson, D. Estrin and S. Shenker, “Optimal and global time synchronization in sensornets”, in Technical report 9,

Center for embedded network sensing, UCLA, 2003

Projektleitung:

Dr.-Ing. Stefan Knedlik

Beteiligte: M. Sc. Pakorn UbolkosoldM. Sc. Franck Tchere

Kontakt:

M. Sc. Pakorn UbolkosoldTelefon: 02 71 / 7 40 - 40 67E-mail: [email protected]

Time Synchronization

IPP Multi Sensorics – Selected Research Projects: Time Synchronization

Sensor node 1

Sensor node 2

Sensor node 3∆T1,∆∫1

∆T2,∆∫2

∆T3,∆∫3

Local clock 2

Local clock 1Perfect clock

Standard Time Scale (UTC)

Loca

l Tim

e

Combining the Micro-Electro-Mechanical Sys-tems (MEMS) technology with recent develop-ments in signal processing and RF circuitry shif-ted the focus to the design of wireless networks of communicating microsensors nodes. Our primary focus is to design some experimental sensor nodes capable of a tremendous diversi-ty of functionality such as sensing capabilities, signal processing, network protocol functions and radio communication. The design of ZESS sensor nodes is an impor-tant milestone in our research perspectives in the field of Communication in WSN.

1. Hardware selection• We feed the digital input data from a digital

source such as a personal computer (PC) via a USB interface to an 8051-compatible mic-rocontroller.

• The signal processing and protocol functions are handled by the EZ-USB enhanced 8051 microprocessor. It uses internal RAM for pro-gram and data storage.

• The radio module we are working with is a single chip 2.4 GHz Gaussian Frequency Shift Keying (GFSK) transceiver capable of delivering data rate up to 1 Mbps. It is based on the HomeRF communication technology

and supports frequency hopping over 125 channels.

2. Firmware developmentThe considered firmware can be modified. This is because of the soft (RAM-based) fea-ture of the EZ-USB microcontroller that allows unlimited configuration and upgrades. Instead of requiring ROM or other fixed memory, the EZ-USB microcontroller contains internal pro-gram/data RAM where the firmware is down-loaded. The development of our firmware includes:• Realization of the USB Frameworks and In-

terrupt handlings (USB 2.0 standard) in C.• Development of a USB DLL in C to interface

the PC and external hardware.• Programming, configuration and control of

the nRF2401 radio transceiver using C lan-guage in combination with a C51 optimizing Compiler. The generated Intel Hex files are then downloaded in the RAM of our EZ-USB microcontroller via the USB interface.

3. Future research directionsMany exciting results have been recently develo-ped for large-scale sensor networks. These net-works can form the basis for many types of smart

applications such as smart hospitals, battlefields, earthquake response systems, environmental mo-nitoring and surveillance systems. In ZESS we are planning to explore the following research issues:• Evaluation of communication protocols for WSN

(position-based routing algorithms, media ac-cess algorithms, managed hardware access).

• Evaluation of communication technologies for WSN (Bluetooth, UWB, Home RF, Zigbee and other proprietary systems).

• GNSS-based positioning and UWB ranging for efficient localization in WSN.

Projektleitung:

Dr.-Ing. Stefan Knedlik

Beteiligte: M. Sc. Franck TchereM. Sc. Pakorn Ubolkosold

Kontakt:

M. Sc. Franck TchereTelefon: 02 71 / 7 40 - 40 67Fax: 02 71 / 7 40 - 40 18E-mail: [email protected]

Design of Wireless Sensor Nodes

IPP Multi Sensorics – Selected Research Projects: Design of Wireless Sensor Nodes

Page 26: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

50 51

Image registration is one of the crucial steps in the processing of remotely sensed data. For high accura-cy and robustness as well as low computational cost, a suitable similarity metric and reduction in search data and search space is needed.In this work, we investigate mutual information as a similarity metric to replace the correlation coefficient. We also look into subimage selection and optimiza-tion algorithms as reduction in search data and space strategies respectively.

Mutual InformationMutual Information (MI) originates from statistical theory and is a measure of statistical dependency. If A and B are images to register, Ha(A) and Hb(B) are defined as their histograms, and Hab(A,B) joint histogram, then MI is defined by

)(*)(

),(*log*),(1a BHAH

BAHMBAHM

MIb

ab

bab

a

where M is the sum of histogram entries.The cost of computing MI depends on the number of pixels in each image, N, and the number of histogram bins, Z. The computational cost of computing the his-togram is O(N). The computational cost relative to Z is O(Z2).

Correlation CoefficientCross Correlation (CC) is a popular and most widely

used similarity metric. One of the main area where it is used is template matching. Matching of images A and B using CC is defined by

2/122 ))((*))((

))((*))((

j i jijij

i

i jijij

bmeanbameana

bmeanbameanaCC

where aij and bij are the pixel values of A and B re-spectively.The computational cost of one computation of spa-tial correlation of two images is O(N2), where N is number of pixels in each image.

Experiment and ResultsWe compare the similarity metrics MI and CC.To start with, random noise is added to the reference image A 768X 512 (figure 3). It is also translated in the 3 pixels both X-axis and Y-axis. The SNR is -10dB. The noise is added because in reality sensor noise makes input and reference images vary in random fashion.The solid cure represent MI and dash curve CC. The result indicates a much sharper MI as compared to the CC curve.

Subimage Selection For registering large remote sensing images, reduc-ing data could be necessary. Subimage selection can be an efficient way of decreasing processing time.If i is total number of images, KxK number of pixels

in subimage and NxN number of pixels in original image, speed up for using subimage for x and y trans-lations only is

24

4

4

4

i

iN

NKNS

Some of the selection criteria for subimages include entropy, gradient magnitude and bandwidth. We are currently investigating these properties.

Optimization AlgorithmsSophisticated optimization algorithms are used to speed up the finding of the maximum of the similarity matrix. Some of the popular algorithms include Spall and Wolfowitz.We are investigating the use of the Ka-lman filter in a stochastic gradient algorithm to find the maximum of MI.

Projektleitung:

Prof. Dr.-Ing. habil. Otmar Loffeld

Beteiligte:M. Sc. Anthony Amankwah

Kontakt:

Prof. Dr.-Ing. habil. Otmar LoffeldTelefon: 02 71 / 7 40 - 31 25E-mail: [email protected]

Image Registration in Remote Sensing

––– CC –––– MI

Figure 1: Elements of Image registration Figure 2: CC and MI curves scaled to range [0,1] Figure 3: Reference image A for MI and CC curve

IPP Multi Sensorics – Selected Research Projects: Image Registration in Remote Sensing

A new multi-chip 2D/3D camera and its special calibration techniques

IPP Multi Sensorics – A new multi-chip 2D/3D camera and its special calibration techniques

The conventional vision sensors (CCD/CMOS) measure the intensity but it lacks the depth in-formation in the scene. This problem is generally solved, by means of triangulation and stereo vi-sion technique. The innovation of laser scanners and range sensors gave a big helping hand on this issue. As a novel idea of measuring the depth in-formation, with a gray scale image, resulted in an innovation called - Photonic Mixer Device (PMD). In spite of its depth measurement, the PMD is cur-rently having low resolution.

Due to technological and cost hindrance, the higher resolution of PMD couldn’t be achieved in the near future. Further the amount of light (modu-lated light) required to illuminate the scene would shoot up, in case of higher resolution. We come up with a new solution to increase the resolution of the PMD, by placing a CCD/CMOS sensor in the special housing, such that the 2D sensor (CCD/CMOS) and the 3D Sensor (PMD) see through a common optical lens. This multi-chip camera sys-tem with 2D and 3D sensor has nearly the same field of view. Thus a high resolution image could be acquired from the PMD by image processing.

Calibration is an essential step, to improve the ac-curacy of a camera and to reconstruct a 3D scene.

By means of calibration, we obtain the intrinsic and extrinsic parameters of the camera. The calibra-tions of up to 2 multi-chip cameras are performed using a planar object such as chess board. For a multi-camera environment i.e., more than 3 multi-chip cameras, we use multi-camera self calibra-tion technique. This technique uses a simple and affordable laser pointer as its calibration object. Thus comparatively stable results are achieved from these techniques.

Salient Features: • Real time 2D/3D imaging.• 3D image with colour information.• Calibration data can be used for navigation

and • Higher resolution of PMD will distinguish the

edges and feature more clearly.

1 CCD - Charge-Coupled Devices2 CMOS - Complementary Metal Oxide Semiconductor

Projektleitung:Dr.-Ing. Klaus Hartmann

Beteiligte:

M. Sc. T.D.Arun Prasad

Kontakt:

Dr.-Ing. Klaus HartmannTelefon: 02 71 / 7 40 - 23 35Fax: 02 71 / 7 40 - 23 36E-mail: [email protected]

Page 27: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

52 53

Distributed Realtime Applications

Realtime applications are becoming increasingly important in our daily lives and can be found in various environments such as automotive applica-tions and medical equipment. Depending strongly on the timeline and predictability of their compu-tational results they are implemented locally, typi-cally on one single computer. Dedicated hardware together with multitasking operating systems often helps to satisfy timing requirements for communi-cation and synchronization.

But what happens to situations that are NOT local-ly solvable like surveying wide and geographically parted areas or controlling a fabrication process that takes place in different locations? The soluti-on is to split up the problem into distributed parts (function modules) each having an independent functionality. There are several programs available to assist the realtime application designer efficient-ly: MATLAB/SIMULINK or LabView for example both providing graphical visualization methods for program and data flow, messaging and priority dependencies. Using these programming tools our intention is to establish a framework in order to be able to insert new developed hardware in simulation en-vironments testing their targeted functionality. This

can dramatically increase development speed and minimize costs. The keyword of hardware in the loop comes up here.

Another important aim is to develop a standardi-zed communication interface allowing the function modules to communicate with each other in a well defined manner independent of their implementa-tion. Due to the diverse nature of the function mo-dules, they can consist of an arbitrary composition of various components from a single computer up to a cluster of specialized hardware (chips on the net) building up a whole network distributed over the whole planet, that considers the possibility of grid computing in order to fulfill the requested functional demands.

Projektleitung:Dr.-Ing. Klaus Hartmann

Beteiligte: Dipl.-Phys. Omar Edmond LöpprichDr. rer. nat. Wolfgang Weihs

Kontakt:Dr.-Ing. Klaus HartmannTelefon: 02 71 / 7 40 - 23 35Fax: 02 71 / 7 40 - 23 36E-mail: [email protected]

Simulating the desired system Replacing software simulated modules

IPP Multi Sensorics – Selected Research Projects: Distributed Realtime Applications

Smart Vision System based on Support Vector Machines

IPP Multi Sensorics – Smart Vision System based on Support Vector Machines

Over several decades the vision systems have been used in different applications ranging from quality control to secure access. While the conventional vision systems usually deal with patterns in which the solving of the problem is based on heuristic algorithms, realworld applications need a vision system that can process the enormous complexity of a dynamic problem in the shortest time.

Smart Vision System (SVS) is an integrated hard-ware/software real time trainable system based on Support Vector Machines (SVM) which provides a solution to many different tasks such as:• object recognition• object verification• shape description• edge detection• defect detection

Fulfillment of these functions requires associating an image with a memory of that object called a model. The conventional methods to match an image to a model under all the possible views of an object and all possible lighting conditions would involve so many images that both storing and searching for the right match would be ho-peless.

Support Vector Machines (SVM) as a new gene-ration learning system based on recent advances in statistical learning theory is used to make the vision system learnable and smart. SVM delivers state-of-the-art performance in real-world appli-cations.

Figure 1 shows the conceptual idea of the Smart Vision System with four main functions:• Sensor module• Image acquisition• Training and processing• Decision function

While the 2D sensors can be any normal high re-solution CCD or CMOS sensors, PMD (photonic Mixer Device) is used as 3D sensor. PMD as the key component of SVS is a non-scanning time of flight ranging system which provides the SVS with the third dimension of the object.

Projektleitung:Dr.-Ing. Klaus HartmannDr. rer. nat. Wolfgang Weihs

Beteiligte: M. Sc. Seyed Eghbal Ghobadi

Kontakt:

Dr.-Ing. Klaus HartmannTelefon: 02 71 / 7 40 - 23 35E-mail: [email protected]

Figure 1

Page 28: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

54 55

Global Navigation Satellite Systems (GNSS) are fully operational radio navigation systems. The two primary systems currently in operation are the Uni-ted States’ Global Positioning System (GPS) and the Russian Global Orbiting Navigation Satellite System (GLONASS). The third one, GALILEO, is Europe’s contribution to a global navigation satel-lite infrastructure and will be operational in 2008. GNSS are expected to serve an ever-increasing role in the determination of relative and absolute position, velocity, and time for both civilian and military areas.

Several constraints determine the accuracy reach-able in GNNS based positioning. Depending on the positioning method, these are satellite geo-metry, ionospheric and tropospheric conditions, receiver and satellite clock errors, receiver noise, multipath effects, baseline length, dynamics of the platform, and the communication channel for cor-rection data. Other important quality parameters are availability of the service, reliability, continuity, integrity, update rate as well as coverage, capaci-ty, dimension.In principle, with the GPS Standard Positioning Service (SPS) and absolute single-point positioning one will yield the poorest results. The next better class of receivers uses carrier phase to smooth the

code phase positioning solution. With a geodetic grade receiver utilizing L1 C/A code and carrier phase as well as L2 P(Y) code and carrier phase one could reach a positioning accuracy of a few m CEP for single-point positioning.

Beside the additional use of the L2 carrier (precise positioning), the raw measurement types can be integrated, carrier phase differences and/or code phase observable differences can be exploited, and differences between receivers and/or satelli-tes and/or epochs can be considered to achieve higher positioning accuracy.

Differential or relative positioning methods consi-dered are (Fast) Static Survey, Kinematic Survey, Differential GPS (DGPS), Precise Differential GPS (PDGPS), and Real-Time Kinematic (RTK). Correc-tion data can be obtained from a network of re-ference stations like SAPOS or EUREF Permanent Network (EPN). Corrections can be transmitted using the internet (NTRIP). Furthermore, correc-tions from Space Based Augmentation Systems (SBAS), e.g. in Europe: EGNOS, will be conside-red. Precise GPS constellation orbit and high-rate GPS constellation clock offset products from the International GNSS Service (IGS) will be used. Io-nospheric corrections can be computed from an

appropriate ionospheric model (interesting if only single frequency observations are available). Last but not least, integration of other position infor-mation (e.g., from inertial navigation systems or range measurements) will enable highly accurate positioning.

Projektleitung:

Dr.-Ing. Stefan Knedlik

Beteiligte: M.Sc. Solomon Kolawole Ige

Kontakt:Dr.-Ing. Stefan KnedlikTelefon: 02 71 / 7 40 - 27 59Fax: 02 71 / 7 40 - 23 36E-mail: [email protected]

GNSS based Positioning and Attitude Determination

IPP Multi Sensorics – Selected Research Projects: GNSS based Positioning and Attitude DeterminationIPP Multi Sensorics – Selected Research Projects: Entwicklung von Systemplattformen für Multisensorhardware

Bilderfassungssysteme sind Bestandteile vieler moderner Applikationen. Während in der Regel allerdings noch zweidimensionale Daten verar-beitet werden, wird es zunehmend wichtig, auch die dritte Raumdimension zu erfassen. Eine solche Entfernungsermittlung wird bereits seit einiger Zeit erforscht. Für die echtzeitnahe Erfassung von 3D-Informationen mit hoher Tiefenauflösung sowie zur echtzeitnahen 3D-Objekterkennung existieren z.Zt. jedoch noch keine breit einsetzbaren Ansät-ze. Anwendungen einer solchen Technik finden sich z.B. im Bereich der Industrieautomatisierung (Sortiersysteme etc.) oder im Zusammenhang mit Fahrerassistenzsystemen. Aus diesem Grund wird in diesem Projekt die Zielsetzung verfolgt, echtzeit-nah hochauflösende 3D-Informationen zu erfas-sen.

Zu diesem Zweck besteht ein Teil dieses Projektes aus der Entwicklung einer Kamerasystemplattform zur Kombination von 2D- und 3D-Sensorik auf Ba-sis der PMD-Technologie. Ziel soll die dynamisch-interaktive Verarbeitung von Multisensordaten und die Fusionierung von 2D-/3D-Informationen sein. Eine solche Plattform ermöglicht registrierte Bewegungen von Kamera und Objekten, so dass Einflüsse durch unterschiedliche optische Rand-bedingungen und räumliche Anordnungen wie-

derholbar verifiziert werden können. In diesem Zusammenhang besteht eine wichtige Aufgabe darin, Möglichkeiten zur Kalibrierung der Konfigu-rationen zu finden und unterschiedliche Beleuch-tungskonfigurationen zu testen. Ferner werden neue Verfahren zur Bilddatenauswertung unter besonderer Berücksichtigung des synchronisierten Auslesens von 2D-/3D-Daten entwickelt.

Projektleitung:

Dr.-Ing. Klaus Hartmann

Beteiligte: Dipl.-Ing. Oliver Lottner

Kontakt:Dipl.-Ing. Oliver LottnerTelefon: 02 71 / 7 40 - 23 37Fax: 02 71 / 7 40 - 23 36E-mail: [email protected]

Entwicklung von Systemplattformen für Multisensorhardware

Page 29: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

56 57

Inhalt

Data Fusion in Mobile Wireless Sensor Networks for Positioning

Figure 3: Principle of Angle of Arrival (AOA)Figure 2: Principle of Time Difference of Arrival (TDOA) Figure 1: Principle of Time of Arrival (TOA)

IPP Multi Sensorics – Data Fusion in Mobile Wireless Sensor Networks for Positioning

In Mobile Wireless Sensor Networks, one of the fundamental problems is the determination of the position of mobile nodes. Many context-aware applications depend on knowing the locations of sensor nodes. For example, in surveillance systems a target’s position should be identified, and in earthquake relief systems the location of a survivor buried underneath rubbles need be provided. In large mobile networks, knowledge of nodes’ positions can be used to facilitate network functions. It can assist in route discovery so as to save significant energy. And other location-based services can also be provided, such as resource finder, roadside assistance, asset tracking and per-sonal-locator.

Unfortunately, the straightforward solution of ad-ding Global Positioning System (GPS) receiver, which solves the problem of positioning in outdoor environments for PC class nodes, to all the nodes in the network is not practical since: GPS can of-ten not work indoors or in the presence of dense vegetation, foliage or other obstacles that block the line-of-sight from the GPS satellites; The po-wer consumption of GPS will reduce the battery life on the sensor nodes thus reducing the effective lifetime of the entire network; The cost of GPS can become an issue when large numbers of nodes

are to be required; The size of GPS and its antenna increases the sensor form factor.

Consequently, many algorithms and solutions have been proposed according to the specific applications and requirements in wireless sensor networks. The used signals exhibit a wide range, mainly including ultrasound, infrared (IR), Wireless Local Area Network (WLAN) and Radio Frequen-cy Identification (RFID). Another possible way is using Global System for Mobile Communications (GSM) network, which was developed as a Euro-pean digital mobile telephone standard and now is the most popular cellular mobile phone network and used by more than one billion people world-wide with about 70% of the world’s market as of 2004. Mainly taking the advantage of low cost re-lative to GPS receiver, rapidly and easily employed by using existing infrastructure, operating in many diverse environments, and easily international roa-ming, GSM networks can be used as an alternati-ve solution to GPS.

In this research work accuracy improvement is chosen as our main goal, thus we consider using the solution of data fusion to achieve improved positioning. Instead of using individual type of measurements, data fusion solution combines and

integrates two or more types of measurements to get redundant and complement information, and to provide position estimates which are more ro-bust, reliable, and accurate. Up until now, the most popular proposed information and measurements from GSM network include Cell Identification, Time of Arrival (TOA), Time Difference of Arrival (TDOA), Angle of Arrival (AOA) and Received Signal Strength (RSS). We are concentrating on integrating such information from different GSM base stations and further fusing them with GPS measurements by using optimization algorithms to improve positioning accuracy.

Projektleitung:

Dr.-Ing. Stefan KnedlikProf. Dr.-Ing. habil. Otmar Loffeld

Beteiligte: M. Sc. Miao Zhang

Kontakt:

M. Sc. Miao ZhangTelefon: 02 71 / 7 40 - 40 67E-mail: [email protected]

The novel CMOS-based optical imaging device PMD (Photo-Mixing-Device) which has been in-vented and developed in Siegen as a result of co-operation between INV, ZESS & PMDTec, offers the opportunity of true 3D imaging of scenes. This thrilling invention is a promising step in the world of optical ranging systems, 2D/3D image registra-tion and free space optical wireless communica-tions. It is the first non-contact and non-scanning 3D semiconductor imaging device applying the conventional TOF (Time-of- Flight) principle.

The PMD has unique features, first: it’s a photo-diode-sized detector which dramatically reduces the size and cost of conventional radar receivers. A second feature is the inherent photonic mixing process which eliminates all further RF-compo-nents including their drift, noise and additionally suppresses the non-correlated background light. These specifications allow the PMD to find its way into many 3D applications (i.e. autonomous ro-botic, satellite clusters, mobile sensor networks) to enhance the performance of some functions of the system in certain usages such as navigation, object tracking, sensor nodes.In this part of the research the aim is the devel-opment of an accurate, middle range distance in-door/outdoor node self-localization system based

on a PMD module for navigation purposes, which can be implemented as a sub-unit in wireless sen-sor networks or as a separate positioning unit for other scenarios where optical positioning is re-quired (applicable).

Time Of flightBy sending out a modulated light signal and esti-mating the time delay by measuring the phase shift of the reflected signal, the distance to a target can be determined. Overall system performance is de-termined by a number of factors, being most im-portantly the output power of the transmitted signal and variations in the shape of the RF- modulated light signal.

Range estimation, Localization and navigati-onRobust range estimation is essential to localization of the nodes. Unfortunately, range estimation has proven to be difficult in sensor networks.First, some of the technical problems have to be studied and analyzed in order to solve them for better performance of the PMD module, which mainly regard the phase algorithm, received signal shape and modulation /demodulation technique, which influence directly the range measurement accuracy.

Secondly, we will set up different constellations to perform node localization functionality in the sen-sor network for indoor application and extend it for mobile sensor networks as shown in figure 2. Therefore, we investigate different algorithms and constellations so that the mobile sensor nodes can determine their positions in a local coordinate sys-tem.Once the problems of sensor node localization are solved, the navigation of sensor nodes from one location to another within the network has to be considered.

Projektleitung:

Prof. Dr.-Ing. habil. Otmar LoffeldDr.-Ing. Stefan Knedlik

Beteiligte: M. Sc. Fayez Hasouneh

Kontakt:

Prof. Dr.-Ing. habil. Otmar LoffeldTelefon: 02 71 / 7 40 - 31 25E-mail: [email protected]

Positioning and Localization System based on PMD (Optical Local Positioning Device)

IPP Multi Sensorics – Selected Research Projects: Positioning and Localization System based on PMD (Optical Local Positioning Device)

Figure 2: Moving PMD node localizes itself by measuring the distance to certain objects

Moving PMD Node

Moving PMD Node

Object 1

Object 2

Object 3

PMD Node

Marker 1

Marker 2

Marker 3

D1

D2D3

Figure 1: Indoor PMD-based mobile node localization & pose estimation.

Page 30: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

58 59

Stabilization of Bilaterally Controlled Teleoperated Systems in the Presence of Time-Varying Delays

Teleoperation defines an approach where a human operator conducts a task in a remote environment via master and slave manipulators. It is an extension of a person‘s sensing and manipulative capabilities to a lo-cation, remote from him. Applications of teleoperation include but are not limited to (i) the rapidly developing area of tele-surgery, (ii) deep-space, and nano-robotics, (iii) unmanned underwater inspection, search and

rescue, (iv) nuclear decommissioning, inspection, and

waste handling, etc.

Providing remote contact force information to the hu-man operator improves task performance. In such a case, when operator gets the feel of reflected force, teleoperator is said to be bilaterally controlled. Pre-sence of time delay in the teleoperated system tends to cause unstability by changing it from passive to an active one.

Passivation is one of the areas that are being pursu-ed very actively for stabilization of such time-delayed systems. The approach mainly deals with the concept of energy that flows into and out of a system. Principle of passivity assumes that sum of this energy must be greater than or equal to zero to make sure that system does not generate energy and thus does not contribu-

te to unstability. A passive system is already a stable system.

Unstability due to time-varying delay using passivity has been treated with time-varying gains of damping elements before and after the communication block. However, there exist constraints on the value of time-delay and its rate of change as well as the presumed passivity of human operator and the environment. Even while a system is stable asymptotically in con-tinuous time, the realized system using internet as a communication medium may get destabilized very easily because of the non real-time nature of the pa-cket-switching protocols.

Recently, time-domain passivity control (see [7,8]) has been proposed to stabilize unstable telerobotic sys-tems and has shown good performance in situations where one or more components of the system behave actively. However, this scheme requires the computa-tion and updating of passivity controllers in real-time in order to dissipate the surplus energy thus making it difficult to be used in many telerobotic scenarios whe-re time-delays are inevitable. In this work, we present a unique approach to solve this problem by using a Kalman filter based energy predictor which allows us to design master and slave passivity controllers even in the presence of time-delays in forward and backward

channels. In order to accurately predict the slave-side energy levels, the predictor makes use of a recursively updated model of the remote system. Provision of sla-ve or environment models is not required because an adaptive mechanism constructs them from the com-mand velocity and delayed force information.

References[1] William R. Ferrell. Delayed force feedback. Human Factors, 8:449–455, 1966.[2] Robert J. Anderson; MarkW. Spong. Asymptotic stability for force reflecting teleoperators with time delay. Proceedings of the

IEEE International Conference on Robotics and Automation, pages 1618–1625, 1989.[3] Gunter Niemeyer; Jean-Jacques E. Slotine. Stable adaptive teleoperation. IEEE Journal of Oceanic Engineering,

16(1):152–162, 1991.[4] G. Niemeyer; J-J. E. Slotine. Towards force-reflecting teleoperation over the internet. Proceedings of the 1998 IEEE

International Conference on Robotics & Automation, pages 1909–1915, 1998.[5] Rogelio Lozano; Nikhil Chopra; Mark W. Spong. Passivation of force reflecting bilateral teleoperators with time varying

delay. Proceedings of Mechatronics’02, Entschede, Netherlands, June 2002.[6] Singha Leeraphan; Thavida Maneewan; S. Laowattana. Stable adaptive bilateral control of teleoperation through

time-varying delay. Proceeding of the International Conference on Intelligent Robots andSystems (IROS 2002), Lausanne, Switzerland, pages 2979–2984, September 30 October 4 2002.

[7] Blake Hannaford; Jee-Hwan Ryu. Time-domain passivity control of haptic interfaces. IEEE Transactions on Robotics and Automation, 18(1):1–10, February 2002.

[8] Jee-Hwan Ryu; Dong-Soo Kwon; Blake Hannaford. Stability guaranteed control: Time domain passivity approach. IEEE Transactions on Control Systems Technology, 12:365–373, April 2004.

[10] S. Hirche and M. Buss. Passive Position Controlled Telepresence System with Time Delay. 2003.

Projektleitung:

Prof. Dr.-Ing. Roth

Beteiligte: M. Sc. Asif Iqbal

Kontakt:

M. Sc. Asif IqbalTelefon: 02 71 / 7 40 - 23 40E-mail: [email protected]

IPP Multi Sensorics –Đ

A telerobotic network A stabilized network block using the proposed predictive time-domain passivity approach

Energies in an unstable delayed teleoperated system

Zen

trum

für

Senso

rsys

tem

eU

nive

rsitä

t Sie

gen

ZESS-Forschungsberichte

Modellierung von Gestaltmerkmalen für die industrielle Oberflächen-inspektion

Alexander Ohl

Arndt, Christoph: Informationsgewinnung und- verarbeitung in

nichtlinearen dynamischen Systemen, Disserta-tion, Aachen: Shaker Verlag, 1997. ZESS For-schungsberichte (Band 2) ISBN 3-8265-2304-0

Balzer, Dirk: Online-Demodulation stark gestörter winkelm-

odulierter Signale mit dem Extended Kalman-Filter, Dissertation, Siegen: Universität Siegen, 1999. Online Publikation

Biltzinger, Jutta: Optimierung der Energiemessung und Bestim-

mung der Protonstrukturfunktion F2 im Experi-ment ZEUS, Dissertation, Siegen: Universität Siegen, 1995.

Blecher, Frank: Rauschen von a-Si:H-pin-Dioden für TFA-

Bildsensorarrays, Dissertation, Siegen: Univer-sität Siegen, 2002. Online Publikation

Bornemann, Rainer: Dreidimensionale konfokale Absorptionsmes-

sungen zur räumlichen Strukturaufklärung, Dis-sertation, Siegen, Germany, Universität Siegen, 2005. Online Publikation

Buxbaum, Bernd: Optische Laufzeitentfernungsmessung

und CDMA auf Basis der PMD-Technolo-gie mittels phasenvariabler PN-Modulati-on, Dissertation, Aachen: Shaker Verlag, 2002. ZESS Forschungsberichte (Band 17) ISBN 3-8265-9805-9

Che, Guangzhou: Synthese nichtlinearer Regelungssysteme mit

Hilfe einer linearähnlichen Matrixstruktur in der Modellbeschreibung, Dissertation, Siegen: Uni-versität Siegen, 1996.

Çonka Nurdan, Tuba: High Resolution Measurements with Silicon Drift

Detectors for Compton Camera Applications, Dissertation, Siegen, Germany, Universität Sie-gen, 2005, Online Publikation

Fischer, Helmut: Ein analoger Bildsensor in TFA (Thin Film on

ASIC)-Technologie, Dissertation, Siegen: Uni-versität Siegen, 1996.

Fuß, Michael: Verfahren zur Automatisierung der visuellen

Oberflächeninspektion mit Hilfe der Bildverarbei-tung, Dissertation, Aachen: Shaker Verlag, 1997. ZESS Forschungsberichte (Band 8) ISBN 3-8265-3157-4

Georgiadis, Christos: Untersuchung und Optimierung neuer optoe-

lektronischer Meßverfahren in der Medizintech-nik insbesondere am Beispiel der Blutdetektion in Flüssigkeiten, Dissertation, Aachen: Shaker Verlag, 2002. ZESS Forschungsberichte (Band 15) ISBN 3-8265-9739-7

Gregor, Ingo: Resonanz-Ramanspektren transienter Mole-

külzustände stark fluoreszierender Farbstoffe, Dissertation, Siegen: Universität Siegen, 2003. Online Publikation

Gross, Ingo: Entwicklung eines Softwaresystems zur univer-

sellen Planung chirurgischer Eingriffe an 2D- und 3D-Bildmodalitäten, Dissertation, Aachen: Shaker Verlag, 2005. ZESS Forschungsberichte (Band 21) ISBN 3-8322-3537-X

Publikationen

Dissertationen http://www.zess.uni-siegen.de/dissertationen

Page 31: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

60 61

Michael Häck Sensorsysteme zur kontinuierlichen Messung

von Prozeßgrößen der biologischen Abwas-serreinigung, Dissertation, Aachen: Shaker Ver-lag, 1998. ZESS Forschungsberichte (Band 12) ISBN 3-8265-4065-4

Haid, Markus: Verbesserung der referenzlosen inertialen Ob-

jektverfolgung zur Low-cost Indoor-Naviga-tion durch Anwendung der Kalman-Filterung, Dissertation, Stuttgart: Fraunhofer IRB Verlag, 2005. ISBN 3-8167-6704-4

Hart, Martin: Auswertung direkter Brennrauminforma-

tionen am Verbrennungsmotor mit estima-tionstheoretischen Methoden, Dissertation, Siegen: Universität Siegen, 1999. Online Pu-blikation

Hein, Achim: Verarbeitung von SAR-Daten unter besonderer

Berücksichtigung interferometrischer Anwend-ungen, Dissertation, Siegen: Universität Siegen, 1998. Online Publikation

Heinol, Horst G.: Untersuchung und Entwicklung von modulation-

slaufzeitbasierten 3D-Sichtsystemen, Disserta-tion, Siegen: Universität Siegen, 2001. Online Publikation

Hirsch, Oliver: Neue Verarbeitungsverfahren von Along-Track

Interferometrie Daten eines Radars mit synthe-tischer Apertur, Dissertation, Siegen: Universität Siegen, 2002. Online Publikation

Hoen, Karl: Prozeßführung von Belebungsanlagen zur bi-

ologischen Stickstoff- und Phosphorelimination, Dissertation, Aachen: Shaker Verlag, 1997. ZESS Forschungsberichte (Band 3) ISBN 3-8265-2825-5

Hußmann, Stephan: Schnelle 3D-Objektvermessung mittels PMD/

CMOS-Kombizeilensensor und Signalkom-pressions-Hardware, Dissertation, Siegen: Universität Siegen, 2000. Online Publikation

Justen, Detlef: Untersuchung eines neuartigen 2D- gestütz-

ten 3D-PMD-Bildverarbeitungssystems, Dis-sertation, Siegen: Universität Siegen, 2001. Online Publikation

Kaschuba, Reinhard: Automatische Fehlererkennung an flächigen

Bauteilen mit Hilfe der Bildverarbeitung, Disser-tation, Siegen: Universität Siegen, 1993.

Kleuver, Wolfram: Berührungslose Entfernungsmessung in der

Qualitätssicherung mit Triangulationssensoren, Dissertation, Aachen: Shaker Verlag, 1998. ZESS Forschungsberichte (Band 10) ISBN 3-8265-4110-3

Klicker, Jürgen: Ein zweidimensionales Triangulationsmeßsys-

tem mit Online-Meßwertverarbeitung bei hoher Bildrate, Dissertation, Siegen: Universität Sie-gen, 1992.

Knedlik, Stefan: Auf Kalman-Filtern basierende Verfahren zur

Erzielung genauer Höhenmodelle in der SAR-Interferometrie, Dissertation, Aachen: Shaker Verlag, 2003. ZESS Forschungsberichte (Band 20) ISBN 3-8322-1596-4

Koscheck, Mathias: Analyse von Reflexsensortechniken in der DVD-

Produktion, Dissertation, Aachen: Shaker Ver-lag, 2002. ZESS Forschungsberichte (Band 18) ISBN 3-8322-0510-1

Krämer, Rainer: Auf Kalman-Filtern basierende Phasen- und

Parameterestimation zur Lösung der Phasen-vieldeutigkeitsproblematik bei der Höhenmo-dellerstellung aus SAR-Interferogrammen, Dis-sertation, Aachen: Shaker Verlag, 1997. ZESS Forschungsberichte (Band 11) ISBN 3-8265-4056-5

Krieger, Thomas: Innovative Sensorkonzepte und Signalverarbei-

tungsstrategien zur Bewegungserkennung und Präsenzkontrolle von Personen, Dissertation, Siegen: Universität Siegen, 2002. Online Publi-kation

Langenbach, Ralf: Methoden der Farbbildverarbeitung für die au-

tomatische Oberflächeninspektion, Dissertati-on, Siegen: Universität Siegen, 2002. Online Publikation

Langer, Reinhard: Ortsabhängige Lebensdauerspektroskopie von

Positronen in Materie, Dissertation, Siegen: Uni-versität Siegen, 2001.

Lehrig, R.: Ein Beitrag zur Visualisierung medizinischer Bild-

daten und Therapieplanung auf einem massiv pa-rallelen Rechnersystem, Dissertation, Düsseldorf: VDI Verlag, 1991. 95 Seiten

Ley, Dietmar:Ein intelligentes Multisensorsystem zur berührungs-

losen Erfassung dreidimensionaler Konturen, Dissertation, Siegen: Universität Siegen, 1992.

Luan, Xuming: Experimental Investigation of Photonic Mixer

Device and Development of TOF 3D Ranging Systems Based on PMD Technology, Disserta-tion, Siegen: Universität Siegen, 2001. Online Publikation

Publikationen

Dissertationen http://www.zess.uni-siegen.de/dissertationen

Publikationen

Mahmoud, Rachad: Sicherheits- und Verfügbarkeitsanalyse komple-

xer Kfz-Systeme, Dissertation, Siegen: Universi-tät Siegen, 2000. Online Publikation

Menk, Ralf Hendrick: Eine Vielkanalionisationskammer für Röntgen-

bildaufnahmen, Dissertation, Siegen: Universi-tät Siegen, 1993.

Mittermayer, Josef: Hochauflösende Verarbeitung von Radardaten

mit synthetischer Apertur, Dissertation, Siegen: Universität Siegen, 2000. Online Publikation

Neuser, Eberhard Karl: Ein abbildender energieselektiver Vieldrahtpro-

portionalzähler für den harten Röntgenbereich, Dissertation, Aachen: Shaker Verlag, 1997. ZESS Forschungsberichte (Band 9) ISBN 3-8265-3955-9

Niederhausen, A.: Modellbildung und Simulation geregelter Kalt-

walzprozesse auf Transputern in Ada, Dissertati-on, Siegen: Universität Siegen, 1993.

Ohl, Alexander: Modellierung von Gestaltmerkmalen für

die industrielle Oberflächeninspektion, Dis-sertation, Aachen: Shaker Verlag, 2005. ZESS Forschungsberichte (Band 22) ISBN 3-8322-3612-0

Olk, Joachim: Untersuchung von Laufzeitentfernungsmeß-

systemen unter besonderer Berücksichtigung des Referenzproblems, Dissertation, Aachen: Shaker Verlag, 1997. ZESS Forschungsberichte (Band 5) ISBN 3-8265-2940-5

Quartulli, Marco: Hierarchical Bayesian Analysis of High Com-

plexity Data for the Inversion of Metric InSAR in Urban Environments, Dissertation, : noch nicht publiziert, 2005.

Radinger, Christoph: Ein Beitrag zur Qualitätskontrolle bei Bandverar-

beitungsanlagen mit einem selbstkalibrierenden Mehrkamerasystem, Dissertation, Düsseldorf: VDI Verlag, 1996.

Ringbeck, Thorsten: Untersuchung opto-elektrischer Phasenregel-

kreise auf Basis von Photomischdetektoren hinsichtlich deren Anwendungspotential für die Photonik, Dissertation, Aachen: Shaker Verlag, 2002. ZESS Forschungsberichte (Band 16) ISBN 3-8265-9789-3

Sarvestani, Amir: Detektoroptimierung für die Proteinkristal-

lographie: Simulationsstudien und Entwick-lung eines neuartigen Prototyps, Dissertation, Siegen: Universität Siegen, 1998.

Sauer, Norbert: Materialuntersuchungen mit Positronen, Disser-

tation, Siegen: Universität Siegen, 2001.

Schenk, Heinz Werner: Optimierung eines bildgebenden Röntgende-

tektors im Bereich des Quantenrauschens, Dis-sertation, Siegen: Universität Siegen, 1992.

Scherer, Matthias: Methoden zur Reduzierung dynamischer Ge-

mischfehler, Dissertation, Siegen: Universität Siegen, 1998. Online Publikation

Schmidt, Kai-Uwe: Entwicklung eines drucküberwachten Spülsys-

tems zur Unterstützung minimal invasiver Ope-rationsverfahren, Dissertation, Aachen: Shaker Verlag, 1997. ZESS Forschungsberichte (Band 4) ISBN 3-8265-2877-8

Schneider, Bernd: Der Photomischdetektor zur schnellen 3D-Vermes-

sung für Sicherheitssysteme und zur Informations-übertragung im Automobil, Dissertation, Siegen: Universität Siegen, 2003. Online Publikation

Schubert, Erhard: Mehrfachfarbcodierte Triangulationsverfahren

zur topometrischen Erfassung und Vermessung von 3D-Objekten, Dissertation, Aachen: Shaker Verlag, 1997. ZESS Forschungsberichte (Band 1) ISBN 3-8265-2451-9

Schulte, Jürgen: Intelligente Bildsensoren in TFA-Technologie am

Beispiel eines Äquidensitenextraktors, Disserta-tion, Siegen: Universität Siegen, 1996.

Schönberger, Dirk: Regelungstechnische und verfahrenstechnische

Maßnahmen zur Leistungssteigerung kommu-naler Abwasserreinigungsanlagen am Beispiel der Kläranlage Netphen, Dissertation, Siegen: Universität Siegen, 2003. Online Publikation

Seibert, G.: Regelungstechnische Analyse einer Kläranlage,

Dissertation, Siegen: Universität Siegen, 1992.

Semmler, Jörg: Ein Beitrag zur Ermittlung der Einflussgrößen

auf die Messunsicherheit beim Einsatz von op-tischen Prüfautomaten zur Geometrieerfassung, Dissertation, Aachen: Shaker Verlag, 2002. ZESS Forschungsberichte (Band 19) ISBN 3-8322-1206-X

Stieler, Dirk: Aufbau einer Triggerelektronik zur Messung

der CP-Verletzung in B-Zerfällen bei HERA-B, Dissertation, Siegen: Universität Siegen, 2001. Online Publikation

Strietzel, Carsten: Ein Kantenabsorptionsverfahren zur Messung

der Energie von Röntgenlinien wasserstoffähn-licher Ionen mit ortsauflösenden Detektoren, Dissertation, Siegen: Universität Siegen, 2001.

Dissertationen http://www.zess.uni-siegen.de/dissertationen

Page 32: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

62 63

Volkov, Sergey: Untersuchung der Verbesserung des Zeitauflö-

sungsvermögens im ps-Bereich mit Hilfe einer Pulsformanalyse, Dissertation, Siegen: Universi-tät Siegen, 2002. Online Publikation

Wagner, Michael: Optimierung von a-Si:H-Dünnschichtsolarzel-

len auf Glas- und Stahlsubstraten, Dissertation, Siegen: Universität Siegen, 1996.

Walessa, Marc: Bayesian Information Extraction from SAR

Images, Dissertation, Siegen: Universität Sie-gen, 2001. Online Publikation

Weber, Jürgen: Ein visuell unterstütztes laseroptisches Multisen-

sorsystem zur automatisierten Erfassung drei-dimensionaler Objekte, Dissertation, Aachen: Shaker Verlag, 1998. ZESS Forschungsberichte (Band 13) ISBN 3-8265-4349-1

Weller, Uwe: Einsatz der digitalen Bildverarbeitung zur Bewe-

gungsanalyse glühender Rohre im Walzprozeß, Dissertation, Aachen: Shaker Verlag, 1997. ZESS Forschungsberichte (Band 6) ISBN 3-8265-2951-0

Xu, Zhanping: Investigation of 3D-Imaging Systems Based on

Modulated Light and Optical RF-Interferometry (ORFI), Dissertation, Aachen: Shaker Verlag, 1999.ZESS Forschungsberichte (Band 14) ISBN 3-8265-9739-7

Ziegler,Michael: Parameteridentifikation mit estimationstheoreti-

schen Methoden am Beispiel der dynamischen Gemischbildung eines Ottomotors, Dissertati-on, Siegen: Universität Siegen, 2002. Online Publikation

Zoll, Stephan: Entwicklung respirometrischer Meßgeräte

für die Abwasser- und Bodenanalytik, Dis-sertation, Aachen: Shaker Verlag, 1997. ZESS Forschungsberichte (Band 7) ISBN 3-8265-3129-9

Arndt, Christoph: Information Measures. Informati-

on and its Description in Science and Engineering. Reihe : Signals and Communication Technology, Springer Verlag. 1st ed. 2001. 2nd printing, 2004, XIX, 547 p. 64 illus., Softcover ISBN 3-540-40855-X

Hein, Achim Processing of SAR Data. Fundamentals, Signal Processing, Interferometry. Reihe : Signals and Communication Technology, Springer Verlag 2004, XV, 291 p. 176 illus. 32 in colour., Geb. ISBN 3-540-05043-4

Loffeld, Otmar Estimationstheorie I - Grundlagen und stochas-tische Konzepte. Oldenbourg Verlag 1. ed. 1990. ISBN 3-486-21616-3

Loffeld, Otmar Estimationstheorie II - Anwendungen - Kalman Filter. Oldenbourg Verlag 1. ed. 1990. ISBN 3-486-21627-9

Buchreihe ZESS-Forschungsberichte im Shaker Verlag:http://www.shaker.de/Online-Gesamtkatalog/Booklist.idc?Reihe=102

http://www.zess.uni-siegen.de/publications

Dissertationen http://www.zess.uni-siegen.de/dissertationen

Publikationen

http://www.zess.uni-siegen.de/cms/upload/pdf/anfahrt.pdf

Zess Forschungsberichte

Buchveröffentlichungen

Anfahrt

Anbindung mit dem Auto: Siegen liegt an der A 45 Dortmund-Gie-ßen. Sowohl aus Richtung Frankfurt-Gie-ßen als auch aus Richtung Dortmund/Köln (A4) erreichen Sie das ZESS direkt über den Zubringer Hüttentalstraße (HTS) ab A45 Anschlussstelle Siegen/Netphen. Folgen Sie den Hinweisschildern „Universität“.

Ab HTS-Ausfahrt Uni/Weidenau Richtung Netphen fahren.An der 2. Ampel nach links in die Straße „Am Eichenhang“ einbiegen.An der 2. Ampel rechts in den „Wilhelm von Humboldt-Platz“ einbiegen. Vor der nächs-ten Fußgängerampel nach links in den Wal-ter-Gropius-Weg einbiegen.Das ZESS-Gebäude befindet sich gut sicht-bar am Ende der Straße.

Anbindung mit Bus und Bahn: Siegen liegt an der Bahnstrecke Münster-Hagen-Siegen-Frankfurt/M. und der Stre-cke Köln-Siegen-Gießen. Von den Bahn-höfen Siegen-Hbf. bzw. Siegen-Weidenau (IR-Strecke) verkehren Busse (Linien L111 bzw. L111 und L121) zur Universität/Haard-ter Berg.

Mit Linie L111 Richtung Universität/Haardter Berg fahren. Bei der Haltestelle „Wilhelm von Humboldt-Platz“ aussteigen.In Fahrtrichtung weitergehen bis zur Ampel. An der Ampel in den Walter-Gropius-Weg einbiegen. Diesen bis zum Ende durchge-hen. Das ZESS-Gebäude befindet sich gut sichtbar am Ende der Straße.

weitere Veröffentlichungen im Zess

P

P

P

P

P

P

Page 33: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

64

• German Aerospace Research Establishment (DLR)

• DaimlerChrysler Aerospace • DaimlerChrysler • Opel/GM – AG• VW

• Basler AG• Siemens• SMS• ESA/ESTEC European Space Agency/European

Space Research and Technology Centre• TEMIC

Industrielle Kooperationspartner:

Industrielle Kooperationspartner

• ZMD• BASF• Leica• Asentics• PMDTec• Stemmer Imaging

Impressum

Herausgeber:ZESS - Zentrum für SensorsystemeUniversität Siegen

Paul-Bonatz-Str. 9-1157076 Siegen

Telefon: 02 71 - 7 40 33 23Telefax: 02 71 - 7 40 23 36

www.zess.uni-siegen.de

Layout & Satz:Ira Dexling

© ZESS, 2006

Page 34: Universität Siegenin der Medizin sind typische Vertreter von Sensorsystemen, in denen durch das Zusammenwirken physikalischer Sensoreffekte und leistungsfähiger Signalverarbeitungsverfahr-en

66

Inhalt

Universität SiegenZESS - Zentrum für Sensorsysteme

Paul-Bonatz-Str. 9-1157076 Siegen

Tel.: 02 71 - 7 40 33 23Fax: 02 71 - 7 40 23 36www.zess.uni-siegen.de