Detailseite
Projekt Druckansicht

Learning 3-Dimensional Maps of Unstructured Environments on a Mobile Robot.

Fachliche Zuordnung Automatisierungstechnik, Mechatronik, Regelungssysteme, Intelligente Technische Systeme, Robotik
Förderung Förderung von 2005 bis 2010
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 5441387
 
Erstellungsjahr 2009

Zusammenfassung der Projektergebnisse

Mobile autonome Roboter werden zunehmend in unstrukturierten Umgebungen eingesetzt die nicht speziell für sie angepaßt wurden - sei es z.B. in Wohnungen und anderen Bereichen des täglichen Lebens, in der Landwirtschaft oder bei Schutz- und Rettungseinsätzen. Entsprechend müssen die Roboter in der Lage sein, eigenständig ein 3D Modell ihrer Umgebung zu erstellen das als Grundlagen für geplante Handlungen und das Fällen von Entscheidungen dienen kann. Im Rahmen dieses Projekts wurde ein neues Verfahren entwickelt, das mobilen autonomen Robotern erlaubt, sehr schnell und sehr robust ein 3D Modell ihrer Umgebung zu erstellen. Bisher übliche Forschungsansätze verwenden in der Regel Punktwolken, d.h. eine Ansammlung von 3D Koordinaten an denen ein Hindernis - z.B. durch einen Lasermeßstrahl - detektiert wurde. Hier wurde im Gegensatz dazu ein flächenbasierter Ansatz entwickelt. Die große Herausforderung ist dabei im allgemeinen, dass der Roboter sich lokalisieren muß - wofür eine Karte nützlich ist - während er gleichzeitig eine Karte erstellen soll - wofür wiederum gute Lokalisierung notwendig ist. Dieses Henne-Ei-Problem ist als Simultaneous Localization and Mapping (SLAM) bekannt. Das im Projekt neuentwickelte Verfahren "3D Plane SLAM" besteht aus den folgenden Schritten: • Eine fortlaufende 3D Erfassung der direkten Umgebung des Roboters an seiner momentanen Position, z.B. durch einen aktuierten Laser Range Finder der in verschiedenen horizontalen und vertikalen Richtungen Entfernungsmessungen durchführen kann, sogenannte 3D Scans. • Die Extraktion großer Oberflächensegmenten in Form von 3D Ebenen mit ihren Begrenzungen sowie den damit verbundenen Unsicherheiten aus einem 3D Scan. • Die Registrierung von zwei Ebenenmengen zweier 3D Scans, d.h. die Bestimmung der räumlichen Transformationen - den Translationen entlang x, y, und z-Achse sowie den Rotationen der drei Raumwinkel - die mit der größten Wahrscheinlichkeit zu der höchsten Übereinstimmung zwischen Teilmengen der Scans führt. • Das Speichern der Transformationen und der mit ihnen verbundenen Unsicherheiten in einer sogenannten Pose-Graph Datenstruktur in der die Knoten Sensorenwerte - hier 3D Scans - und die Kanten räumliche Transformationen und Unsicherheiten, d.h. Vermutungen über die Bewegungen des Roboters im Raum - beinhalten. • Schleifenerkennung und Optimierung, d.h. das Erkennen von Orten in deren Nähe der Roboter bereits war und die Nutzung dieser Information um eine Messung an diesem Ort mit den Erwartungen in der bisherigen 3D Karte - im Pose-Graph gespeichert - in Einklang zu bringen und den Fehler zu minimieren. Dieses Verfahren ist im Vergleich zum bisherigen Stand der Technik sehr schnell. Es ermöglicht, dass die 3D Karte online generiert wird während sich der Roboter durch seine Umgebung bewegt. Dabei hat das Verfahren den weiteren großen Vorteil, dass es im Gegensatz zu den meisten anderen Arbeiten in diesem Gebiet keinerlei Bewegungssensoren - sogenannte Odometrie oder Intertialsensoren - benötigt. Die Verwendung von Ebenensegmenten hat weitere Vorteile gegenüber dem bisherigen Stand der Technik. Erstens ist diese Art der Repräsentierung erheblich speichereffizienter als die bisher übliche Verwendung von Punktwolken. Auch sind Ebensegmente besser als Basis für autonome intelligente Funktionen wie Hindernisvermeidung und Wegplanung geeignet als Punktwolken da sie besser für geometrische Analysen geeignet sind. Am besten läßt sich das Verfahren im Innenbereich oder in urbanen Umgebungen einsetzen wo in der Regel viele ebene Flächen vorkommen. Mit Ebenensegmenten lassen sich aber auch nichtplanare Umgebungen und Objekte durchaus sinnvoll approximieren; selbst Menschen oder Außenumgebungen sind möglich.

Projektbezogene Publikationen (Auswahl)

  • 3D Forward Sensor Modeling and Application to Occupancy Grid Based Sensor Fusion. International Conference on Intelligent Robots and Systems (IROS), IEEE Press, 2007
    Kaustubh Pathak, Andreas Birk, Sören Schwertfeger, Jann Poppinga
  • Extraction of Semantic Floor Plans from 3D Point Cloud Maps. International Workshop on Safety, Security, and Rescue Robotics (SSRR) IEEE Press, 2007
    Vytenis Sakenas, Olegas Kosuchinas, Max Pfingsthorn, and Andreas Birk
  • Fast Detection of Polygons in 3D Point Clouds from Noise-Prone Range Sensors. International Workshop on Safety, Security, and Rescue Robotics (SSRR) IEEE Press, 2007
    Narunas Vaskevicius, Andreas Birk, Kaustubh Pathak, and Jann Poppinga
  • Optimized Octtree Datastructure and Access Methods for 3D Mapping. International Workshop on Safety, Security, and Rescue Robotics (SSRR) IEEE Press, 2007
    Jann Poppinga, Max Pfingsthorn, Soeren Schwertfeger, Kaustubh Pathak and Andreas Birk
  • Spatial Knowledge Processing within the Reproductive Perception Paradigm Control Mechanisms for Spatial Knowledge Processing in Cognitive / Intelligent Systems. AAAI Spring Symposium, Stanford, Association for the Advancement of AI, 2007
    Andreas Birk
  • Efficiently Communicating Map Updates with the Pose Graph. International Conference on Intelligent Robots and Systems (IROS) IEEE Press, 2008
    Max Pfingsthorn and Andreas Birk
  • Fast Plane Detection and Polygonalization in noisy 3D Range Images. International Conference on Intelligent Robots and Systems (IROS) IEEE Press, 2008
    Jann Poppinga, Narunas Vaskevicius, Andreas Birk, and Kaustubh Pathak
  • Subpixel Depth Accuracy with a Time of Flight Sensor using Multimodal Gaussian Analysis. International Conference on Intelligent Robots and Systems (IROS) IEEE Press, 2008
    Kaustubh Pathak, Andreas Birk, and Jann Poppinga
  • Towards Object Classification using 3D Sensor Data. ECSIS Symposium on Learning and Adaptive Behaviors for Robotic Systems (LAB-RS) IEEE, 2008
    Soeren Schwertfeger and Jann Poppinga and Andreas Birk
  • A Novel Approach to Wrap Around Error Correction for a Time-Of-Flight 3D Camera RoboCup 2008: Robot WorldCup XII, L. Iocchi, H. Matsubara, A. Weitzenfeld, C. Zhou (Eds.) Lecture Notes in Artificial Intelligence (LNAI), Springer, 2009
    Jann Poppinga and Andreas Birk
  • Fast 3D Mapping by Matching Planes Extracted from Range Sensor Point-Clouds. International Conference on Intelligent Robots and Systems (IROS) IEEE Press, 2009
    K. Pathak, N. Vaskevicius, J. Poppinga, Max Pfingsthorn, S. Schwertfeger, A. Birk
  • Relaxing Loop-Closing Errors in 3D Maps Based on Planar Surface Patches. 14th International Conference on Advanced Robotics (ICAR), IEEE Press, 2009
    Kaustubh Pathak, Max Pfingsthorn, Narunas Vaskevicius and Andreas Birk
  • Revisiting Uncertainty Analysis for Optimum Planes Extracted from 3D Range Sensor Point- Clouds. International Conference on Robotics and Automation (ICRA), IEEE Press, 2009
    Kaustubh Pathak, Narunas Vaskevicius, and Andreas Birk
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung