Abstract
Im Projekt UWSensor wurde ein neuartiger optischer
3D-Unterwassersensor basierend auf
Streifenlichtprojektion mit einem GOBO-Projektor
entwickelt. Das Sensorsystem ermöglicht eine
flächige 3D-Erfassung mit hoher Genauigkeit und
Abtastrate, sowie eine gleichzeitige Erfassung von
Farbdaten. Dies erlaubt den Einsatz zur mobilen
Kartierung und 3D-Erfassung mit einem
Unterwasserfahrzeug. Dieser Beitrag beschäftigt sich
mit der Bewegungsschätzung sowie der Fusion der
Einzelscans in ein global konsistentes
3D-Modell. Hierbei wird zunächst visuelle Odometrie
in Kombination mit einem faseroptischen Gyroskop
genutzt, um die Eigenbewegung des Sensors zu
schätzen. Die daraus latenzarm abgeleiteten Posen
werden dem Live-Aufnahmesystem des Sensors
bereitgestellt, um eine online-Bewegungskompensation
der den 3D Scans zugrundeliegenden Serie von
Kamerabildern zu realisieren. Anschließend wird eine
mehrstufigen Registrierungsstrategie angewendet, um
die Schätzung der Trajektorie weiter zu
verfeinern. Zunächst wird mittels des Iterative
Closest Point (ICP) Algorithmus jede 3D-Punktwolke
sequentiell gegen ihre Vorgänger registriert. Da
sich kleine Restfehler in der Registrierung
akkumulieren, erfolgt im nächsten Schritt eine
zweite Registrierung mittels eines
zeitkontinuierlichen ICP-Verfahren. Hierbei werden
mehrere Punktwolken zu Teilkarten zusammengefasst
und gegeneinander registriert, wobei die
Verbesserungen der Trajektorie im Anschluss wiederum
auf die einzelnen Posen der Punktwolken verteilt
werden, um die Kontinuität der Trajektorie zu
bewahren. In diesem Registrierungsschritt werden
auch Schleifen in der Trajektorie erkannt und
geschlossen, um den Drift zu korrigieren. Für die
Kalibrierung des Sensorsystems wurde eine
Kombination von Aufnahmen in Luft und im Wasser
eingesetzt. Das Verfahren wurde auf dynamischen
Aufnahmen mit dem neuentwickelten Sensorsystem in
einem Wasserbecken getestet und evaluiert. Hierbei
wurden sowohl bekannte Testkörper mit bewegtem
Sensor im Wasser eingescannt, als auch die
berechneten Trajektorien anhand der Bewegungsdaten
des Portalsystems validiert.
Users
Please
log in to take part in the discussion (add own reviews or comments).