Mobile autonome Roboter werden zunehmend in unstrukturierten Umgebungen eingesetzt die nicht speziell für sie angepaßt wurden - sei es z.B. in Wohnungen und anderen Bereichen des täglichen Lebens, in der Landwirtschaft oder bei Schutz- und Rettungseinsätzen. Entsprechend müssen die Roboter in der Lage sein, eigenständig ein 3D Modell ihrer Umgebung zu erstellen das als Grundlagen für geplante Handlungen und das Fällen von Entscheidungen dienen kann. Im Rahmen dieses Projekts wurde ein neues Verfahren entwickelt, das mobilen autonomen Robotern erlaubt, sehr schnell und sehr robust ein 3D Modell ihrer Umgebung zu erstellen. Bisher übliche Forschungsansätze verwenden in der Regel Punktwolken, d.h. eine Ansammlung von 3D Koordinaten an denen ein Hindernis - z.B. durch einen Lasermeßstrahl - detektiert wurde. Hier wurde im Gegensatz dazu ein flächenbasierter Ansatz entwickelt. Die große Herausforderung ist dabei im allgemeinen, dass der Roboter sich lokalisieren muß - wofür eine Karte nützlich ist - während er gleichzeitig eine Karte erstellen soll - wofür wiederum gute Lokalisierung notwendig ist. Dieses Henne-Ei-Problem ist als Simultaneous Localization and Mapping (SLAM) bekannt. Das im Projekt neuentwickelte Verfahren "3D Plane SLAM" besteht aus den folgenden Schritten: • Eine fortlaufende 3D Erfassung der direkten Umgebung des Roboters an seiner momentanen Position, z.B. durch einen aktuierten Laser Range Finder der in verschiedenen horizontalen und vertikalen Richtungen Entfernungsmessungen durchführen kann, sogenannte 3D Scans. • Die Extraktion großer Oberflächensegmenten in Form von 3D Ebenen mit ihren Begrenzungen sowie den damit verbundenen Unsicherheiten aus einem 3D Scan. • Die Registrierung von zwei Ebenenmengen zweier 3D Scans, d.h. die Bestimmung der räumlichen Transformationen - den Translationen entlang x, y, und z-Achse sowie den Rotationen der drei Raumwinkel - die mit der größten Wahrscheinlichkeit zu der höchsten Übereinstimmung zwischen Teilmengen der Scans führt. • Das Speichern der Transformationen und der mit ihnen verbundenen Unsicherheiten in einer sogenannten Pose-Graph Datenstruktur in der die Knoten Sensorenwerte - hier 3D Scans - und die Kanten räumliche Transformationen und Unsicherheiten, d.h. Vermutungen über die Bewegungen des Roboters im Raum - beinhalten. • Schleifenerkennung und Optimierung, d.h. das Erkennen von Orten in deren Nähe der Roboter bereits war und die Nutzung dieser Information um eine Messung an diesem Ort mit den Erwartungen in der bisherigen 3D Karte - im Pose-Graph gespeichert - in Einklang zu bringen und den Fehler zu minimieren. Dieses Verfahren ist im Vergleich zum bisherigen Stand der Technik sehr schnell. Es ermöglicht, dass die 3D Karte online generiert wird während sich der Roboter durch seine Umgebung bewegt. Dabei hat das Verfahren den weiteren großen Vorteil, dass es im Gegensatz zu den meisten anderen Arbeiten in diesem Gebiet keinerlei Bewegungssensoren - sogenannte Odometrie oder Intertialsensoren - benötigt. Die Verwendung von Ebenensegmenten hat weitere Vorteile gegenüber dem bisherigen Stand der Technik. Erstens ist diese Art der Repräsentierung erheblich speichereffizienter als die bisher übliche Verwendung von Punktwolken. Auch sind Ebensegmente besser als Basis für autonome intelligente Funktionen wie Hindernisvermeidung und Wegplanung geeignet als Punktwolken da sie besser für geometrische Analysen geeignet sind. Am besten läßt sich das Verfahren im Innenbereich oder in urbanen Umgebungen einsetzen wo in der Regel viele ebene Flächen vorkommen. Mit Ebenensegmenten lassen sich aber auch nichtplanare Umgebungen und Objekte durchaus sinnvoll approximieren; selbst Menschen oder Außenumgebungen sind möglich.