Detailseite
Multisensorisches Wahrnehmen, Lernen und Agieren während crossmodaler Teleoperation (C06)
Fachliche Zuordnung
Allgemeine, Kognitive und Mathematische Psychologie
Förderung
Förderung von 2016 bis 2019
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 261402652
Projekt C6 erforscht multisensorische Wahrnehmung, Anpassung und crossmodales Lernen während der Mensch-Roboter-Kollaboration mit dem Fokus auf Tele-Operationen innerhalb des persönlichen Interaktionsraums eines Benutzers. Insbesondere kann der Benutzer, einen entfernten Roboterarm steuern und dabei visuelle und taktile Rückmeldung in Echtzeit durch ein immersives Display bzw. haptisches Eingabegerät erhalten. Ziel ist es, Perzeption und Aktion des Menschen während der Interaktion zu verstehen, und die Erkenntnisse zu nutzen, um Benutzern durch einen Roboterarm eine Erweiterung des eigenen Körpers zu ermöglichen und dabei eine effektive und effiziente Interaktion mit Objekten in der Nähe des entfernten Roboterarms zu ermöglichen. Das Projekt wird Techniken aus dem Bereich Virtual Reality und Mensch-Computer-Interaktion verwenden und mittels psychophysischer und fMRI-Experimente Einschätzungen der Benutzer über Größen, Entfernungen und Bewegungen in der entfernten Umgebung analysieren und verstehen.
DFG-Verfahren
Transregios
Internationaler Bezug
China
Antragstellende Institution
Universität Hamburg
Mitantragstellende Institution
Peking University
Teilprojektleiter
Professor Dr. Lihan Chen; Professor Dr. Fang Fang; Professor Dr. Frank Steinicke