Detailseite
Projekt Druckansicht

Objektsegmentierung in Videodaten mittels Analyse von Punkttrajektorien

Fachliche Zuordnung Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung Förderung von 2012 bis 2019
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 211353192
 
Das Lernen von Objektrepräsentationen wird zur Zeit von überwachten Lernverfahren dominiert. Diese Verfahren benötigen manuell annotierte, idealerweise segmentierte Trainingsbilder und profitieren dabei von großen Datensätzen. Da deren Aquirierung jedoch aufwendig ist, wird meist versucht, das Erkennungsproblem mit möglichst wenig Trainingsdaten zu lösen. Diese Aufgabe erscheint unnatürlich, bedenkt man, dass ein Kleinkind im Alter von zwei Jahren bereits knapp zwei Milliarden Bilder gesehen hat. In diesem Projekt soll daher die natürliche Anordnung von Bildern in Videos ausgenutzt werden um Objekte vollautomatisch zu segmentieren und damit den aufwendigsten Teil der Annotierung durch einen unüberwachten Ansatz zu ersetzen. Insbesondere sollen Objekte anhand ihrer Eigenbewegung segmentiert werden. Dazu werden im Gegensatz zu früheren Arbeiten längere Zeiträume von mehreren Sekunden analysiert, um der zeitlich variierenden Qualität des Bewegungssignals Rechnung zu tragen. Mit der Erweiterung auf Videos einer Stereokamera soll schließlich ein weiteres, natürlich zur Verfügung stehendes Merkmal, nämlich die Disparität, zur räumlich-zeitlichen Segmentierung mit genutzt werden.
DFG-Verfahren Sachbeihilfen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung