Konferenzbeitrag
Visuelle Odometrie und dichte Rekonstruktion für mobile Roboter
Lade...
Volltext URI
Dokumententyp
Text/Conference Paper
Zusatzinformation
Datum
2017
Autor:innen
Zeitschriftentitel
ISSN der Zeitschrift
Bandtitel
Verlag
Gesellschaft für Informatik e.V.
Zusammenfassung
Damit ein autonomer Roboter sich bewegen und den Raum mit Menschen teilen kann, muss er eine interne Repräsentation seiner Umgebung erstellen und sich gleichzeitig darin positionieren. In dieser Dissertation werden Methoden untersucht, wie ein Roboter in Echtzeit eine solche Repräsentation mittels Kameras und Inertialsensoren erstellen kann. Der erste Beitrag ist eine semidirekte Methode zur Bewegungsschätzung welche sehr genau und robust ist und darüber hinaus den aktuellen Stand der Technik im Bereich Rechenzeit signifikant übertrifft. Im zweiten Beitrag wird gezeigt, wie die Genauigkeit der vorgeschlagenen Methode durch die Fusion mit Inertialsensoren nochmals verbessert werden kann. In einem Experiment wurde gezeigt wie die Kameraposition über eine Distanz von 300 Metern auf 0.3 Meter genau bestimmt werden kann. Im dritten Beitrag wird eine probabilistische Methode entwickelt welche es ermöglicht die Oberflächenrekonstruktion zu verdichten. In einem integrierten System erlaubt dieser Algorithmus einem autonomen Mikrodrone selbständig einen Landeplatz zu finden welcher frei von Hinternissen ist. Der letze Beitrag nützt die Tatsache aus, dass der Roboter die Datenaufnahme beeinflussen kann. Es wird ein Algorithmus entwickelt der die optimale Trajektorie berechnet um möglichst schnell die Tiefe jedes Pixels im Referenzbild zu schätzen, d.h. die Oberfläche im Bild dreidimensional rekonstruiert.