Digitale Objekte aus unvollständigen 3-D-Daten

Saarbrücker Forscher erstellen digitale Objekte aus unvollständigen 3-D-Daten

 
Mit speziellen Kameras
können reale Objekte inzwischen digital erfasst werden. Sie stoßen
jedoch noch an Grenzen, wenn beispielsweise die Oberfläche eines
Objektes für den Scanner zu dunkel ist und daher kein Signal liefert
oder sich Teile gegenseitig verdecken. Informatiker des
Max-Planck-Instituts für Informatik haben gemeinsam mit Kollegen vom
US-amerikanischen Halbleiterhersteller Intel und dem Intel Visual
Computing Institute der Universität des Saarlandes eine Methode
entwickelt, die selbst aus unvollständigen Aufnahmen ein digitales
Objekt rekonstruieren kann. Die Forscher nutzen dafür einen speziellen
Typ eines neuronalen Netzwerkes.

 
„Obwohl die
3D-Scan-Technologie in den vergangenen Jahren einen erheblichen Sprung
gemacht hat, ist es immer noch eine Herausforderung, die Geometrie und
Form eines realen Objektes digital und automatisiert zu erfassen“,
erklärt Mario Fritz, der am Max-Planck-Institut für Informatik die
Gruppe „Scalable Learning and Perception“ leitet. Laut Fritz sind
Tiefensensoren, etwa der Microsoft Kinect Sensor, sehr leistungsfähig,
aber sie funktionieren nicht auf allen Materialien gleich gut, was zu
verrauschten Daten oder sogar fehlenden Messwerten führt. „Die daraus
resultierenden fehlerhaften oder sogar unvollständigen 3D-Geometrien
stellen ein echtes Problem für eine Reihe von Anwendungen dar, etwa in
der virtuellen, erweiterten Realität oder bei der Zusammenarbeit mit
Robotern und im 3-D-Druck“, erklärt Mario Fritz.
 
Gemeinsam mit
weiteren Forschern vom US-amerikanischen Halbleiterhersteller Intel und
dem Intel Visual Computing Institute der Saar-Uni entwickelte er daher
eine Methode, die auch mit unvollständigen Datensätzen funktioniert. Sie
nutzt ein spezielles neuronales Netzwerk. „Unsere Methode benötigt
keinerlei Aufsicht während der Lernphase, was in dieser Form ein Novum
ist“, erklärt Fritz. Auf diese Weise konnten die Forscher beispielsweise
einen flachen Monitor, dessen digitales Abbild nach dem 3-D-Scan eher
einer Bretterwand glich, so rekonstruieren, dass jedermann wieder in dem
digitalen Objekt einen Monitor erkennen konnte. Damit schlagen die
Saarbrücker Informatiker auch bisherige Methoden, die fehlerhafte
3D-Scans verbessern und Formen vervollständigen. Auch bei der
Klassifizierung von gescannten Objekten zeigt die Methode aus
Saarbrücken sehr gute Ergebnisse. In Zukunft wollen die Wissenschaftler
ihre Methode weiterentwickeln, so dass es auch bei verformbaren Objekten
und größeren Szenen funktioniert.  
 
„Zukünftig muss es
einfach und schnell gelingen, Objekte aus der echten Welt zu erfassen
und diese realitätsnah in die digitale Welt zu projizieren“, erklärt
Philipp Slusallek, Professor für Computergraphik der Universität des
Saarlandes und wissenschaftlicher Direktor am Deutschen
Forschungszentrum für Künstliche Intelligenz (DFKI). Am DFKI ist er auch
für das europäische Verbundprojekt „Distributed 3D Object Design“, kurz
DISTRO, verantwortlich, mit dem die Europäische Union die
Forschungsdisziplinen Visual Computing und 3D-Computergrafik an die
wissenschaftliche Weltspitze bringen will. Dazu soll eine neue
Generation von exzellenten Wissenschaftlern und Technikern ausgebildet
werden. Fünf der 15 ausgeschriebenen Doktorandenstellen wurden mit
Forschern des Saarland Informatics Campus an der Universität des
Saarlandes besetzt.

Weitere Informationen:
https://scalable.mpi-inf.mpg.de/vconv-dae-deep-volumetric-shape-learning-without-object-labels/