Detailseite
Crossmodale Repräsentation für robustes Roboterverhalten (A04)
Fachliche Zuordnung
Automatisierungstechnik, Mechatronik, Regelungssysteme, Intelligente Technische Systeme, Robotik
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Kognitive, systemische und Verhaltensneurobiologie
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Kognitive, systemische und Verhaltensneurobiologie
Förderung
Förderung seit 2016
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 261402652
Projekt A4 befasst sich mit dem Thema der „Dynamik Crossmodalen Lernens“ aus Informatik- und Robotik Sicht, mit dem Ziel, crossmodale Repräsentationen für robustes Roboterverhalten zu lernen. A4 schlägt die Entwicklung einer neuartigen crossmodalen Simulationsplattform vor, welche nahezu realistische physikalische Eigenschaften bieten sowie neuartige taktile Sensoren, verformbare Objekte und Robotermodelle integrieren wird. Anhand eines anspruchsvollen Beispielszenarios, dem Aufhängen von Kleidungsstücken, werden sowohl Mata-Lernverfahren als auch kollaborative Multi-Agent-Techniken, welche auf geteilte und dynamische crossmodale Repräsentation abzielen, untersucht. Die gelernten Klassifikatoren und Kontaktmodelle werden auf humanoiden Plattformen hinsichtlich Übertragbarkeit getestet. Gesammelte Datensätze und die Simulationsumgebung werden als einheitliche Benchmark Szenarien zur Verfügung gestellt.
DFG-Verfahren
Transregios
Internationaler Bezug
China
Antragstellende Institution
Universität Hamburg
Teilprojektleiter
Professor Dr. Yizhou Wang; Professor Dr. Jianwei Zhang; Professor Dr. Changshui Zhang