Detailseite
Maschinelles Lernen vielfältiger Bein-basierter Lokomotion mit aktiver Wahrnehmung
Antragsteller
Professor Jan Reinhard Peters, Ph.D.
Fachliche Zuordnung
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Automatisierungstechnik, Mechatronik, Regelungssysteme, Intelligente Technische Systeme, Robotik
Automatisierungstechnik, Mechatronik, Regelungssysteme, Intelligente Technische Systeme, Robotik
Förderung
Förderung seit 2022
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 506123304
Die mobile Robotik wird vorr. eine rasante Entwicklung nehmen und zahlreiche neue Anwendungen in unterschiedlichen Szenarien finden, wo Menschen bei mühsamen oder gefährlichen Aufgaben unterstützt werden. Unter den mobilen Robotikplattformen sind bein-basierte Roboter von besonderem Interesse da sie sich in schwierigen Bereichen besser bewegen können als Plattformen mit Rädern, z. B. bei unregelmäßigem Untergrund, in der Nähe von Trümmern oder in engen Räumen. Ziel dieses Projektes ist die Entwicklung einer grundlegenden Methodik für autonomer Roboter mit Beinen. Die angestrebte Lösung sollte sich an anspruchsvolle Umgebungen mit geringem Freiraum und unwegsamem Gelände anpassen und den Roboter in die Lage versetzen, aktiv fehlerhafte Zustände zu vermeiden. Um die Autonomie der Gangregler deutlich zu verbessern, müssen wir einige grundlegende Aspekte der Interaktion mit der Umgebung genauer betrachten: Wahrnehmung und Handlung. Hierzu werden moderne Techniken des maschinellen Lernens die theoretischen und praktischen Grundlagen als Grundlage genutzt. Die wichtigste Neuerung unseres Ansatzes liegt in der ganzheitlichen Analyse des Lernens für Wahrnehmung und Handlung. In der Tat gibt es viele wichtige Gründe, Handlung und Wahrnehmung gemeinsam zu betrachten: Forscher haben gezeigt, dass eine aktive und interaktive Wahrnehmung von grundlegender Bedeutung ist, um die Qualität der Wahrnehmung und Schätzung von Größen im Vergleich zur passives Erfassen der Umgebung zu verbessern bzw. überhaupt zu ermöglichen, insbesondere bei Manipulationsaufgaben. Um eine solide algorithmische Grundlage für das Erlernen von Wahrnehmung und Fortbewegung zu schaffen, ist es außerdem von entscheidender Bedeutung zu berücksichtigen, welche Art von Eingabe- und Ausgabedaten von den einzelnen Modulen erzeugt werden, wie die Daten verarbeitet werden und welche Art der Darstellung für den Lernprozess am besten geeignet ist. Diese neue integrative Lösung wird es unserem System ermöglichen, zielgerichtet auf unerwartete Geländeeigenschaften zu reagieren, um Ausrutschen und Ausfälle zu vermeiden, den Kontakt mit den umliegenden Hindernissen zu erkennen und diese physische Interaktion zu nutzen, um sich effizient durch enge Passagen zu bewegen, was weit über den aktuellen Stand der Technik hinausgeht. Die Methodik wird mit Hilfe hochwertiger wissenschaftlicher Bewertungsstandards und Benchmarks verifiziert. Die Stärken und eventuelle Nachteile der entwickelten Lösung besser werden in einem Höhlenerkundungsszenario evaluiert. Die Effektivität der Lösung wird anhand einer Aufgabe zu demonstriert, die über bestehende Testszenarien zur Fortbewegung hinausgeht, und somit eine einfache Möglichkeit bieten, Vergleiche auf verschiedenen kommerziell erhältlichen Hardware- und Softwarelösungen zu ermöglichen.
DFG-Verfahren
Sachbeihilfen
Internationaler Bezug
Polen
Kooperationspartner
Professor Dr. Krzysztof Tadeusz Walas