Detailseite
Objektsegmentierung in Videodaten mittels Analyse von Punkttrajektorien
Antragsteller
Professor Dr.-Ing. Thomas Brox
Fachliche Zuordnung
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung
Förderung von 2012 bis 2019
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 211353192
Das Lernen von Objektrepräsentationen wird zur Zeit von überwachten Lernverfahren dominiert. Diese Verfahren benötigen manuell annotierte, idealerweise segmentierte Trainingsbilder und profitieren dabei von großen Datensätzen. Da deren Aquirierung jedoch aufwendig ist, wird meist versucht, das Erkennungsproblem mit möglichst wenig Trainingsdaten zu lösen. Diese Aufgabe erscheint unnatürlich, bedenkt man, dass ein Kleinkind im Alter von zwei Jahren bereits knapp zwei Milliarden Bilder gesehen hat. In diesem Projekt soll daher die natürliche Anordnung von Bildern in Videos ausgenutzt werden um Objekte vollautomatisch zu segmentieren und damit den aufwendigsten Teil der Annotierung durch einen unüberwachten Ansatz zu ersetzen. Insbesondere sollen Objekte anhand ihrer Eigenbewegung segmentiert werden. Dazu werden im Gegensatz zu früheren Arbeiten längere Zeiträume von mehreren Sekunden analysiert, um der zeitlich variierenden Qualität des Bewegungssignals Rechnung zu tragen. Mit der Erweiterung auf Videos einer Stereokamera soll schließlich ein weiteres, natürlich zur Verfügung stehendes Merkmal, nämlich die Disparität, zur räumlich-zeitlichen Segmentierung mit genutzt werden.
DFG-Verfahren
Sachbeihilfen