Detailseite
Vorhersage von Szenendynamik mittels physikalisch basierter Simulation (P5)
Antragsteller
Professor Dr. Reinhard Klein
Fachliche Zuordnung
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung
Förderung von 2017 bis 2021
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 313421352
In der ersten Phase des Projekts lag der Schwerpunkt auf der Echtzeit-Rekonstruktion von statischen Szenen und der Erstellung von Aktivitätskarten. Dazu wurden sowohl geometrische Daten als auch Daten zu Materialeigenschaften erfasst. Beide Datenquellen liefern wertvolle Informationen für Anwendungen wie die Navigation von Servicerobotern und die Manipulation von Objekten. Das Hauptziel der zweiten Projektphase ist die Antizipation der Szenendynamik. Die geplanten Untersuchungen umfassen die 3D-Rekonstruktion, die physikalisch basierte Simulation einschließlich der Ableitung von Materialparametern in dynamischen Umgebungen in Echtzeit. Um unsere Forschung zu fokussieren, beschränken wir uns zunächst auf die Antizipation der Dynamik von Textilien, wie sie von Robotern für die korrekte Handhabung von Textilien benötigt wird. Dazu werden wir die in der ersten Projektphase entwickelten Ansätze zur Echtzeit-Rekonstruktion statischer Szenen zunächst auf die Szenendynamik und die Deformation von Objekten erweitern. Neben der Rekonstruktion der Grobgeometrie planen wir auch die Erfassung der den Textilien zugrundeliegenden höher aufgelösten Strukturen, wie z.B. Web- oder Strickmuster von Stoffen, um daraus physikalische Materialparameter abzuleiten, die für das dynamische Verhalten relevant sind. Der Schwerpunkt liegt dabei auf einer differenzierbaren, physikalisch basierten Stoffsimulation. Die resultierende Simulation soll mit neuen Ansätzen zur effizienten 3D-Szenensegmentierung kombiniert werden, um ein parametrisiertes Modell abzuleiten, das zu den beobachteten Daten passt und die Vorhersage der entsprechenden Dynamik von Objekten ermöglicht. Letzteres ermöglicht es z.B. einem Roboter, die zu erwartende Bewegung eines Textils beim Greifen mit realen Beobachtungen zu vergleichen und gegebenenfalls zu korrigieren.
DFG-Verfahren
Forschungsgruppen
Teilprojekt zu
FOR 2535:
Anticipating Human Behavior