Detailseite
Sichere Mensch-Roboter-Interaktion mittels maschinellem Lernen und Erreichbarkeitsanalyse
Antragsteller
Professor Dr.-Ing. Matthias Althoff
Fachliche Zuordnung
Automatisierungstechnik, Mechatronik, Regelungssysteme, Intelligente Technische Systeme, Robotik
Förderung
Förderung seit 2024
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 548385598
Viele Prozesse können nicht von Robotern automatisiert werden, weil die erforderlichen kognitiven Fähigkeiten zu hoch sind. Eine vielversprechende Lösung für diese Herausforderung ist die Integration von kollaborativen Robotern (auch Cobots genannt) zur Unterstützung menschlicher Mitarbeiter bei körperlich anspruchsvollen Aufgaben. Um Cobots erfolgreich zu integrieren, müssen sie trotz relativ hoher Geschwindigkeiten sicher sein und ein breites Spektrum an kollaborativen Aufgaben lösen können, da die meisten dieser Aufgaben nicht wie herkömmliche Fertigungsprozesse programmiert werden können. Um die oben genannten Herausforderungen zu meistern, werden wir ein flexibles Rahmenwerk für die Sicherheit von KI-gesteuerten Robotern entwickeln. Durch den Einsatz von Reinforcement Learning und Erreichbarkeitsanalysen zielt unser vorgeschlagener Sicherheitskonzept darauf ab, formal korrekte Entscheidungen zu treffen, die nicht nur die menschliche Sicherheit gewährleisten, sondern auch die Effizienz und die Anpassung an menschliche Präferenzen im Vergleich zu traditionellen Planungsalgorithmen verbessern. Wir schlagen eine Vielzahl von Sicherheitsmodi vor, zwischen denen unser Sicherheitssystem je nach den aktuellen Anforderungen jederzeit umschalten kann. Durch das Angebot mehrerer Sicherheitsmodi kann unser Rahmenwerk verschiedene menschliche Präferenzen und betriebliche Anforderungen berücksichtigen, was zu einer vielseitigeren und anpassungsfähigeren Lösung für eine sichere Mensch-Roboter-Interaktion führt. Um Reinforcement Learning für die Mensch-Roboter-Interaktion wettbewerbsfähiger zu machen, werden wir außerdem einen neuartigen sogenannten Schattenmodus entwickeln, in dem der Reinforcement Learning Agent trainiert, während das System von einem herkömmlichen Regler betrieben wird, der sofort eine gute Performanz aufweist, da er nicht trainiert werden muss. Sobald der Reinforcement Learning Agent sicher genug ist, um in bestimmten Betriebsbereichen besser zu sein als der konventionelle Regler, werden diese Bereiche an den Reinforcement Learning Agent übergeben. Wir werden unseren Ansatz nicht nur an vielen Benchmarks, sondern auch an einem Schunk LWA 4P Roboter und einem modularen Roboter von RobCo demonstrieren.
DFG-Verfahren
Sachbeihilfen