6
50 GIESSEREI 106 04/2019 SPEKTRUM VON LUTZ HAGNER, ROBIN HÖHNE BLANKENBURG (HARZ) D ie Röntgen-Computertomografie hat sich unter den zerstörungsfrei- en Prüfverfahren einen festen Platz erworben. Weil sowohl qualitative als auch quantitative Aussagen über ein zu untersuchendes Volumen zuverlässig möglich sind, ist dieses Verfahren wie kein anderes universell einsetzbar. Durch erfolgreiche Normungsbemühungen wur- den die Messergebnisse von CT-Systemen mittlerweile auf eine belastbare Grundla- ge gestellt. Die Anzahl der Anbieter von industriellen CT-Systemen steigt ständig, und auch im Dienstleistungsbereich tau- chen immer wieder neue Anbieter auf. Kurzum: Fast jede Gießerei hat bereits Erfahrungen mit dem Verfahren gemacht, und der Trend zum eigenen CT-System ist ungebrochen. Nach wie vor gehört die Röntgen-Computertomografie jedoch zu den kostenintensiveren Untersuchungs- verfahren. Neben der Reduzierung der Anlageninvestitionen ist die Reduzierung der Scan-Zeit, aber vor allem auch der sich anschließenden Analyse- und Bewer- tungszeit, ein geeignetes Mittel, dieses Problem zu bewältigen. Automatisch auswerten Die automatische Bewertung von Durch- strahlungsbildern ist seit langem bekannt Bewertung der Qualität von Gussbauteilen mittels CT und KI Der Zwang zur Funktionsintegration, Individualisierung und Masseeinsparung führt viele Prozesse an die Grenzen ihrer Stabilität. Entsprechend steigt der Bedarf zur Inspekti- on der Produktqualität. Damit rücken die Inspektionskosten noch weiter in den Fokus. Gerade bei der Prüfung großer Stückzahlen werden sie wesentlich durch die Geschwin- digkeit des Prüfprozesses bestimmt. Die Bewertung durch ausgebildete und erfahrene Prüfer ist aus Kostengründen oft nicht zu rechtfertigen. Wie mithilfe Künstlicher Intelli- genz (KI) die Expertise des Menschen auf kostengünstige Art in Prüfprozessen nutzbar ist, wird im Folgenden näher betrachtet. Mensch und Maschine, zusammen geht’s schneller und besser. FOTOS: MICROVISTA Auszug aus „GIESSEREI“ (2019), Heft 4, Seite 50 - 55. Nachdruck verboten. © DVS Media GmbH, Düsseldorf

Bewertung der Qualität von Gussbauteilen mittels CT und KI€¦ · 54 GIESSEREI 106 04/2019 SPEKTRUM Im Rahmen der Untersuchungen wur - den CT-Scans von 16 Pleuelstangen aus Aluminium

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

  • 50 GIESSEREI 106 04/2019

    SPEKTRUM

    VON LUTZ HAGNER, ROBIN HÖHNE BLANKENBURG (HARZ)

    Die Röntgen-Computertomografie hat sich unter den zerstörungsfrei-en Prüfverfahren einen festen Platz erworben. Weil sowohl qualitative als auch quantitative Aussagen über ein zu untersuchendes Volumen zuverlässig möglich sind, ist dieses Verfahren wie kein anderes universell einsetzbar. Durch

    erfolgreiche Normungsbemühungen wur-den die Messergebnisse von CT-Systemen mittlerweile auf eine belastbare Grundla-ge gestellt. Die Anzahl der Anbieter von industriellen CT-Systemen steigt ständig, und auch im Dienstleistungsbereich tau-chen immer wieder neue Anbieter auf. Kurzum: Fast jede Gießerei hat bereits Erfahrungen mit dem Verfahren gemacht, und der Trend zum eigenen CT-System ist ungebrochen. Nach wie vor gehört die Röntgen-Computertomografie jedoch zu

    den kostenintensiveren Untersuchungs-verfahren. Neben der Reduzierung der Anlageninvestitionen ist die Reduzierung der Scan-Zeit, aber vor allem auch der sich anschließenden Analyse- und Bewer-tungszeit, ein geeignetes Mittel, dieses Problem zu bewältigen.

    Automatisch auswerten

    Die automatische Bewertung von Durch-strahlungsbildern ist seit langem bekannt

    Bewertung der Qualität von Gussbauteilen mittels CT und KIDer Zwang zur Funktionsintegration, Individualisierung und Masseeinsparung führt viele Prozesse an die Grenzen ihrer Stabilität. Entsprechend steigt der Bedarf zur Inspekti-on der Produktqualität. Damit rücken die Inspektionskosten noch weiter in den Fokus. Gerade bei der Prüfung großer Stückzahlen werden sie wesentlich durch die Geschwin-digkeit des Prüfprozesses bestimmt. Die Bewertung durch ausgebildete und erfahrene Prüfer ist aus Kostengründen oft nicht zu rechtfertigen. Wie mithilfe Künstlicher Intelli-genz (KI) die Expertise des Menschen auf kostengünstige Art in Prüfprozessen nutzbar ist, wird im Folgenden näher betrachtet.

    Mensch und Maschine, zusammen geht’s schneller und besser.

    FOTO

    S:

    MIC

    RO

    VIS

    TAAuszug aus „GIESSEREI“ (2019), Heft 4, Seite 50 - 55.Nachdruck verboten. © DVS Media GmbH, Düsseldorf

  • GIESSEREI 106 04/2019 51

    und etabliert. Gusskomponenten des Fahrwerks werden standardmäßig so un-tersucht. Für eine zunehmende Zahl von Inspektionsaufgaben reicht aber aufgrund der fehlenden räumlichen Informationen eine zweidimensionale Bewertung nicht aus. So verwundert es wenig, dass sich schon zu einem sehr frühen Zeitpunkt erste Veröffentlichungen mit einer auto-matischen Auswertung von komplett di-gitalisierten Volumina beschäftigten [1], [2]. Immer höhere Scangeschwindigkei-ten sogenannter Inline- oder Atline-CT haben die Entwicklung von Software zur automatischen Auswertung beflügelt. Be-kannt sind insbesondere die Lösungen des Fraunhofer EZRT in Fürth oder die Inline-Lösung der Volume Graphics GmbH. Erste Informationen zum Einsatz der letztgenannten Software wurden be-reits 2014 veröffentlicht. Sie zeichnen sich durch einen flexiblen Einsatz und ei-ne gute Konfigurier- und Bedienbarkeit aus. Auch bei der Microvista GmbH ist seit Jahren eine eigene Software im Ein-satz [3]. Die Datenflüsse in dieser Soft-ware sind in hohem Maße parallelisierbar. Auf Grund ihrer extremen Modularität lässt sie sich gut applikationsspezifisch anpassen und bietet in Summe eine sehr hohe Verarbeitungsgeschwindigkeit. Viele tausend Zylinderköpfe, Kurbelgehäuse, Getriebewellen, aber auch Gussbaugrup-pen für die Elektromobilität sind damit bereits automatisch bewertet worden.

    Die Krux mit den Schwellwerten

    In der Regel hat die Auswertesoftware die Aufgabe, durch eine Qualitätsvereinba-

    rung festgelegte Sollwerte mit den per CT-Scan erhobenen Messwerten zu ver-gleichen (Bild 1). Die in Qualitätsverein-barungen enthalten Sollwerte werden als Schwellen interpretiert, die zur Unter-scheidung zwischen guten und schlechten Bauteilen dienen sollen. In den wenigsten Fällen ist dabei die Entscheidung einstu-fig. Vielmehr entstehen häufig tief ver-schachtelte Entscheidungsbäume mit komplexen Bewertungskriterien (Bild 2).

    Die Parameter in diesen Entschei-dungsbäumen leiten sich oft nur indirekt aus den Sollwertvorgaben ab und sind von den Eigenschaften des CT-Systems und der Objektgeometrie abhängig. Dadurch ist bis zum Erreichen eines befriedigenden Bewertungsergebnisses häufiges Nach-justieren erforderlich. Veränderungen des

    Materials, der Objektgeometrie oder auch durch Alterungserscheinungen am CT-System erfordern immer wieder aufwen-dige Anpassungen.

    Hinzu kommt, dass es häufig alles an-dere als leicht ist, objektive Bewertungs-kriterien im erforderlichen Umfang zu de-finieren. Auch hier ist die Ursache oft, dass jedes Merkmal immer unter Berück-sichtigung eines Kontextes betrachtet werden muss. Demgegenüber kann der Mensch häufig schon beim ersten Blick auf ein CT-Schnittbild eine klare Aussage treffen.

    Lösungsansatz CNN

    So scheint es nicht verwunderlich, dass man schon seit längerem versucht, die menschliche Expertise auf künstliche Wei-se für die Qualitätsbewertung nachzubil-den – allerdings zunächst nur mit durch-wachsenem Erfolg. Ein wichtiges Problem dieser ersten KI-Systeme war die Notwen-digkeit, aus dem erfassten Datenmateri-al (z.B. den Bildern) jene Parameter zu extrahieren, die wirklich qualitätsrelevant sind [4], denn für die Fütterung eines

    Bild 1: Prozessstufen eines automa-tischen Inspektionsprozesses mit-tels Röntgen- Computertomografie.

    Bild 2: Beispiel eines verhältnismäßig einfachen Entscheidungsbaums zur quantitativen Bewertung einer einzel-nen Pore.

    Bild 3 : Kernkastennummer am Prüfobjekt.

  • 52 GIESSEREI 106 04/2019

    SPEKTRUM

    künstlichen neuronalen Netzes wurden aus den rekonstruierten Bildern solche Parameter, wie> der mittlere Grauwert und das über-

    lagerte Rauschen,> der Schwerpunkt der Grauwerte ins-

    gesamt,> die Pixel pro Grauwertcluster und> der Kontrast und dessen Schwan-

    kungsbreite

    usw. erfasst. Mit der Entwicklung soge-nannter CNN (Convolutional Neuronal Network) ist es nun möglich, ohne die Extraktion von geeigneten Parametern zu bewerten. Diese neuen Netze stellen Soft-waresysteme dar, denen immer die kom-pletten, kaum vorverarbeiteten Bilddaten übergeben werden. In einer Lernphase sucht diese Software nach wiederkehren-den Mustern. Beim überwachten Lernen sind die Eingabebilder vorab klassifiziert,

    z.B. als IO oder NIO. Die Software sucht nun selbst nach Merkmalen, die für die entsprechende Klassifikation typisch sind. In der Produktivphase wird jedes Bild durch eine Vielzahl von Faltungsope-rationen auf die gelernten Merkmalskom-binationen untersucht und schließlich ei-ne wahrscheinlichkeitsbasierende Ent-scheidung getroffen.

    Gießdatum und Kernkastennummer

    Wie oft in der Computertomografie kom-men viele Innovationen aus der Medizin. Auch dort wird versucht, die Auswertung von Röntgen- und CT-Bildern zu vereinfa-chen. In einer Studie aus dem Jahr 2017 [4] konnte nachgewiesen werden, dass bei der Bewertung von Röntgen-Thorax-aufnahmen mit KI-Methoden die Sensiti-vität (Anteil der richtig erkannten Merk-malsträger) 97,3 und die Spezifität (Anteil der richtig erkannten merkmalsfreien Ob-jekte) 94,7 Prozent erreicht werden konn-te. Inspiriert von diesem Erfolg wurden von Prüfobjekten, bei denen Wandstärken computertomografisch gemessen wer-den, Gießdatum und Kernkastennummer, die als arabische Ziffern auf der Oberflä-che des Bauteils verfügbar sind, fotogra-fisch erfasst (Bild 3). Die Bilder wurden einem CNN zugeführt und nach der Um-wandlung in ein Datum bzw. eine Zahl in einer Datenbank gespeichert. Dadurch konnten die Möglichkeiten der statisti-schen Prozesskontrolle (SPC) ohne ma-nuellen Zusatzaufwand signifikant erwei-tert werden. Die Erkennungsrate bei der Ziffernerkennung ist hoch und liegt um die 99 %. Oft kann bei den fehlenden 1 % auch der Mensch keine eindeutige Ent-scheidung mehr fällen.

    Porositätensuche mit künstlicher Intelligenz

    Künstliche MerkmaleBeflügelt durch diese positiven Ergebnis-se wurden originale CT-Schichtbilder ei-nes Pleuels mit künstlichen Merkmalen in Form von> Mikroporositätsnestern,> kleinen Poren und> großen Poren

    infiziert (Bild 4). Zum Training wurden Schnittbilder aller drei Ebenen (Front-, Top-, Rechtsschnitt) verwendet. Damit liegen pro Pleuel zunächst 1081 Bilder unterschied-licher Größe vor, die jedoch auf eine ein-heitliche Größe normiert wurden. Das ge-samte Datenvolumen betrug schließlich ca. 2,3 GByte pro Pleuel. Der Lernprozess mit ca. 10 000 Testbildern wurde ebenfalls per „Transfer Learning“ an einem in Matlab verfügbaren CNN (VGG16) realisiert und erforderte etwas Geduld.

    Die aus den drei unterschiedlichen Richtungen erfassten Schnittbilder wur-den drei verschiedenen Netzen zuge-führt, deren Klassifikationsergebnis sich durch eine „2-aus-3-Bewertung“ noch-mals verbessern ließ. Nach einigen Ite-rationen wurde in einer Millionen Schnitt-bildern nur 1 künstlich eingebrachtes Merkmal nicht oder nicht korrekt er-kannt.

    KI-Entwicklungsumgebung mit TensorflowFür die Umsetzung von anspruchsvollen KI-Projekten, z.B. der Detektion mehrerer Objekte, deren Ortung und Größenbe-stimmung in einem Bild mittels CNN, ist die Verwendung der Programmiersprache Python in Verbindung mit Googles Ten-sorFlow-Bibliothek weit verbreitet. Ten-sorFlow ist eine umfangreiche, skalierba-re Umgebung, welche neben den vorteil-haften technischen Eigenschaften als Open-Source-Software für alle frei zu-gänglich ist und über eine breite Commu-

    Bild 4: Künstlich eingebrachte Merkmale in aus drei verschieden Richtungen erzeugten CT-Schnittbildern.

    Bild 5: Entwicklungsumgebung für die Realisierung von KI-Projekten.

  • nity im Internet verfügt. Somit lassen sich zahlreiche Informationen und Problemlö-sungen schnell finden.

    Eine mögliche Entwicklungsumgebung für ein KI-Projekt ist in Bild 5 skizziert. Wesentliche Bestandteile sind eine leis-tungsfähige Recheneinheit (hier GPU, NVIDIA-GeForce-GTX-1050TI), welche mit entsprechenden Softwaremodulen aus-gestattet ist sowie eine Datenbank mit einer ausreichenden Menge an Lern- und

    Testdaten für das Anlernen des CNN. Die lokale Installation der Tensorflow-Umge-bung verläuft nicht völlig reibungslos, ist aber mit Unterstützung durch das Internet auch ohne umfangreiche IT-Kenntnisse zu bewältigen.

    Vorbereitung des LerndatensatzesDie Grundlage für das erfolgreiche Anler-nen eines CNN sind ausreichend große Datenmengen, anhand derer das Netz die

    Zusammenhänge zwischen Ein- und Aus-gabemustern ermitteln kann. Die Gene-rierung und Aufbereitung des Lerndaten-satzes hat wesentlichen Einfluss auf die Vorhersagegenauigkeit und Generalisie-rung des angelernten CNN und ist zen-traler Aspekt bei der Umsetzung eines KI-Projekts. Sofern nicht auf vorhandenen Daten zurückgegriffen werden kann, er-fordert die Generierung des Datensatzes häufig einen hohen Zeitaufwand.

    Bild 6: Lernfortschritt eines TensorFlow-CNN (faster R-CNN InceptionV2).

    INDUSTRIELLECOMPUTERTOMOGRAPHIE

    CT-Dienstleister für Serienprüfung

    Microvista GmbH | Am Mönchenfelde 12 | D-38889 Blankenburg (Harz)+49 3944 950-50 | [email protected] | www.microvista.de

  • 54 GIESSEREI 106 04/2019

    SPEKTRUM

    Im Rahmen der Untersuchungen wur-den CT-Scans von 16 Pleuelstangen aus Aluminium durchgeführt und pro Bauteil wiederum Schnittbilder erzeugt. Der Lerndatensatz umfasst insgesamt 1140 Bilder gleichen Formats. Für das Anler-nen ist es erforderlich, die zu identifizie-renden Objekte je Bild aus dem Lernda-tensatz zu labeln, d.h. die zu suchenden Merkmale z.B. mit einer Box zu markie-ren und merkmalsspezifisch zu sortieren. Dieser Prozess muss einmalig manuell erfolgen und kann sehr zeitaufwendig sein. Zumindest unterstützen grafische Werkzeuge den Bediener interaktiv, so dass der Einarbeitungsaufwand gering ist. Im konkreten Fall wurde lediglich das Label „Pore“ genutzt, jedoch ist die Zu-weisung mehrerer Label pro Bild möglich (z.B. Lunker oder die Unterscheidung in kleine und große Poren). Nach dem La-beln existiert für jedes Bild eine zusätz-liche Datei, welche die Position der ge-labelten Objekte, sofern vorhanden, ent-hält.

    Einsatz des Transfer LearningsDie Konstruktion eines eigenen CNN ist eine anspruchsvolle sowie zeit- und re-chenintensive Aufgabe. Für den Anwender ist es daher vorteilhaft, vortrainierte CNN zu nutzen, welche via OpenSource bereit-gestellt werden, umfangreich dokumen-tiert sind und in der TensorFlow Object Detection-API einfach implementiert wer-den können.

    Für die vorgesehene Porenerkennung werden vier häufig verwendete Netzmo-delle:> faster R-CNN InceptionV2> faster_rcnn_101> faster_rcnn_50 und> mobilenet_v2

    miteinander verglichen. Grundsätzlich un-terscheiden sich die Modelle in der Ar-chitektur sowie dem internen Datenhand-ling. Das Ziel des Lernprozesses besteht nun darin, diese Netze um die Fähigkeit der Porenerkennung zu erweitern, indem der spezifische Lerndatensatz nachtrai-niert wird. Diese Methode nennt man Transfer Learning oder Image Retraining. Dabei wird nur ein kleiner Teil des vortrai-nierten Netzes neu berechnet, was eine immense Zeitersparnis mit sich bringt (Stunden statt Tage).

    Zur Kontrolle des Lernprozesses kann das Visualisierungswerkzeug Tensor-Board genutzt werden. Dieses bietet ver-schiedene Visualisierungen, u.a. der Vor-hersagequalität mit zunehmender Anzahl

    an Lernschritten. Für den Lernprozess des faster R-CNN InceptionV2-Modells ist er-sichtlich, dass bereits nach etwa 1000 Lernschritten das Netz den geringsten Fehler (total loss), d.h. die höchste Vor-hersagegenauigkeit, erzielt (Bild 6).

    ErgebnisseDie Bewertung der Vorhersagequalität der angelernten CNN erfolgt anhand von 160 2D-CT-Bildern, welche nicht Teil des Lern-datensatzes sind. Diese werden ohne vor-heriges Labeling in das jeweilige antrai-nierte Netz eingespeist. Ein Vergleich der Ausgaben des CNN mit den realen und bekannten Bewertungen erlaubt dann ei-ne Einschätzung der Bewertungsqualität.

    In Tabelle 1 sind die wesentlichen Er-gebnisse der vier Netzmodelle gegenüber-gestellt. Die Analyse eines Bildes erfolgt am schnellsten mit dem mobilenet_V2-Modell, wobei die Vorhersagequalität bei lediglich 88,3 % liegt, d.h. von 100 Poren werden im Schnitt 88,3 richtig erkannt. Dahingegen erkennt das faster R-CNN In-ceptionV2 alle Poren bei vergleichsweise

    Tabelle 1: Vergleich der Performance unterschiedlicher Netze.

    Netzmodell Analysezeit/Bild in ms Genauigkeit, in %

    faster R-CNN InceptionV2 12,4 100faster_rcnn_101 43,5 98,3faster_rcnn_50 32,9 98,3mobilenet_v2 1,0 88,3

    Bild 7: Beispiele für die Porenfindung an CT-Schnittbildern mit CNN (faster R-CNN InceptionV2).

  • schneller Analysezeit. Das faster R-CNN InceptionV2 wird auf-grund seiner Robustheit in einer Vielzahl von Objekterkennungs-lösungen eingesetzt, u.a. für das autonome Fahren. Die Analy-sezeiten beziehen sich auf ein CNN, das von Google im Internet bereitgestellt wird (Cloud).

    Je Bild gibt das CNN die Position vorhandener Poren an und umzeichnet diese mit einer Box. Bild 7 zeigt die Vorhersagen des faster R-CNN InceptionV2-Modells für verschiedene Schnitt-bilder, wobei die Analyse eines Bildes bei Verwendung einer lokal zur Verfügung stehenden GPU auf etwa 0,2 ms reduziert werden kann. Die korrekten Vorhersagen einzelner sowie meh-rerer Poren mit unterschiedlichen Größen bei zugleich unter-schiedlichen Helligkeitswerten und Querschnitten bestätigt die hohe Leistungsfähigkeit und Robustheit des Modells auch für den konkreten Fall der Porenerkennung.

    Herausforderungen

    Die hohe Sensitivität bzw. Spezifität des KI-unterstützenden Ver-fahrens schürt die Hoffnung, dass diese Technologie auch bei der Inspektion von Gussbauteilen zukünftig eingesetzt werden kann. In einem weiteren Schritt kommt es darauf an, die gefun-denen Merkmale auch sicher zu quantifizieren. Im 2-dimensio-nalen Raum ist das mittels R-CNN schon heute möglich. Aktu-ell wird jedoch intensiv an Normen zur 3-dimensionalen Be-wertung von Poren gearbeitet. Entsprechend ist der Übergang vom Bild zum Volumen als Input für CNN anzustreben. Und es gibt weitere Herausforderungen: Das aus Aluminiumguss her-gestellte Pleuel ist auch deshalb für die dargestellten Untersu-chungen ausgewählt worden, weil es ohne wesentliche Bildar-tefakte digitalisierbar ist. CT-Bilder von Kurbelgehäusen oder Turboladern sind dagegen oft erheblich mit Artefakten belastet, die zu detektierende Merkmale überlagern können. Wie ein CNN mit diesen Bildinformationen umgeht, ist bisher nicht aus-reichend untersucht worden. Als sinnvoll wird auch die Kom-bination von KI-Methoden mit klassischen, schwellwertbasie-renden Verfahren angesehen. Dies kann z.B. derart geschehen, dass per KI zunächst die merkmalsunauffälligen Bauteile oder Bauteilregionen erkannt werden und anschließend nur solche Bauteile bzw. Bauteilregionen mit Schwellwertverfahren unter-sucht werden, die aus Sicht der KI „verdächtig“ sind. Vorbild kann hier wie so oft die Medizin sein, die in solchen Fällen den Menschen als letzte Bewertungsinstanz zurate zieht und damit sehr hohe Bewertungsqualitäten bei gleichzeitig hoher Effek-tivität erreicht.

    www.microvista.de

    Dr. Lutz Hagner, Geschäftsführer und Robin Höhne. Entwicklungs-ingenieur, Microvista GmbH, Blankenburg

    Literatur[1] S. Oeckl, U. Haßler,T. Wenzel, R. Hanke: Automatische Aus-wertung von 3D-CT Daten ohne CAD-Information, ProceedingsDGZfP Jahrestagung 2001, Internet: https://www.ndt.net/artic-le/dgzfp01/papers/v58/v58.htm (28.2.2019)[2] L. Hagner, F. Mnich: Inline-Computertomographie als Quali-tätstool in der Serienfertigung, Fachtagung Industrielle Compu-tertomographie 2010 Wels/Österreich, Proceedings S. 201ff[3] L. Hagner, F. Mnich: Schnelle Computertomographie im prak-tischen Einsatz, Giesserei 1/2013, S. 44-50[4] Paras Lakhani, Baskaran Sundaram: Deep learning at chestradiography: Automated Classification of Pulmonary Tuberculosis by Using Convolutional Neural Networks, Radiology: Volume 284: Number 2- August 2017, S. 574-582

    Prof. Dr. Lutz Hagner ist seit 2008Geschäftsführer der Microvista GmbH in Blan-kenburg (Harz) und befasst sich auch im Rahmen seiner Tätigkeit als Dozent an der Hochschu-le Harz in Wernigerode und der Technischen Uni-versität Otto-von-Guericke Magdeburg mit dem Thema der Industriellen Computertomogra-phie. Seit 1990 ist er bereits Geschäftsführer der NetCo Professional Services GmbH, dem Schwester-unternehmen von Microvista.

    Robin Höhne hat sein Maschinenbau-Studium 2012 an der Technischen Universität Dresden abgeschlos-sen und war anschließend am Institut für Leichtbau und Kunststofftechnik im Bereich Funktionsintegration tätig. Seit Januar 2019 arbeitet er als Entwicklungs-ingenieur bei der Microvista GmbH. Sein Hauptauf-gabengebiet umfasst den Einsatz von Methoden des Maschinellen Lernens zur Auswertung von CT-Schicht-bildern.

    ...stellt sich vor: