Detailseite
Projekt Druckansicht

Lokale Wahrnehmung für die autonome Navigation von Multikoptern

Fachliche Zuordnung Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Physik des Erdkörpers
Förderung Förderung von 2011 bis 2020
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 166047863
 
Gegenstand des Projekts ist die Generierung einer Umgebungsrepräsentation eines autonomen Kopters, die eine sichere 3D-Navigation und Hindernisvermeidung in P3 erlaubt. Grundlage für die Erzeugung dieser Sicht sind zum einen die Posenschätzung des Kopters aus P1, sowie die Messungen von Abstandssensoren und Kameras, die dieser mitführt. Zusätzlich zu dem in der ersten Projektphase entwickelten 3D Laserscanner und den Ultraschallsensoren sollen weitere Sensormodalitäten mit einbezogen werden: Radarsensoren und Time-of-Flight-Kameras. Darüber hinaus sollen auch Hindernisse, die in dem vorhandenen Mehrkamerasystem detektiert wurden, noch stärker einbezogen werden. Dies sind visuelle Objektpunkte, die in P4 durch Stereo-Triangulation und Bündelausgleich erzeugt werden, und dichtere visuelle Hindernisse aus P5. Die Hindernisdetektion soll auch dann zuverlässig arbeiten, wenn einzelne Modalitäten ausfallen, z.B. aufgrund der Hinderniseigenschaften oder der Beleuchtungsverhältnisse. Die Anforderungen an die zu erzeugende Umgebungsrepräsentation ergeben sich durch die Bedürfnisse der Navigation. Um den Autonomiegrad des Kopters zu erhöhen, sollen nicht nur egozentrische Repräsentationen mit relativer Genauigkeit, sondern auch allozentrische Repräsentationen onboard erzeugt werden. Die egozentrische Belegtheitskarte soll mit hoher Rate gepflegt werden, indem die Messungen eines begrenzten Zeitfensters gegeneinander registriert werden. Dabei soll eine gemeinsame Registrierung von visuellen Merkmalen und Laser-Abstandsmessungen erfolgen. Der Registrierungsfehler aller Messungen soll global optimiert werden, um eine konsistente allozentrische Umgebungsrepräsentationen zu erzeugen. Dazu soll auch -- wenn verfügbar -- die in P1 aus GNSS geschätzte Pose einbezogen werden. Aus der Registrierung der Messungen soll fortlaufend die Kalibrierung des multimodalen Sensorsystems geschätzt werden. Die Registrierung soll durch Graph-Optimierung erfolgen, wobei neue Techniken für die gleichzeitige Registrierung mehrere Modalitäten entwickelt werden sollen. Ein weiterer Schwerpunkt der Arbeit soll auf der Modellierung dynamischer Hindernisse liegen. Diese sollen von der statischen Umgebung getrennt und separat modelliert werden. Dies dient zum einen der Bewegungsvorhersage, die in P3 für eine vorausschauende Planung benötigt wird. Weiterhin soll in Zusammenarbeit mit P7 eine semantische Kategorisierung der Umgebung erfolgen. Dies bezieht sich auf die Kategorisierung von Oberflächen (z.B. Boden, Fassade, Dach, Vegetation) und die Detektion von Objekten, wie Personen, Fahrzeugen, Fenstern, etc. die in der Navigation besonders berücksichtigt werden müssen. Hierfür sollen Methoden zur 3D-Fusion von semantischer Kategorisierung, zur Objektdetektion und zum Lernen aus wenigen annotierten Beispielen weiter entwickelt werden.
DFG-Verfahren Forschungsgruppen
Mitverantwortlich Professor Dr. Jürgen Gall
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung