Detailseite
Projekt Druckansicht

Audioklassifikation über Sensornetze bei Trainingsdaten mit geringer Überwachung

Fachliche Zuordnung Elektronische Halbleiter, Bauelemente und Schaltungen, Integrierte Systeme, Sensorik, Theoretische Elektrotechnik
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung Förderung von 2016 bis 2023
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 282835863
 
Ein grundsätzliches Problem für viele maschinelle Lernverfahren ist eine Diskrepanz zwischen den Trainingsdaten und den Testdaten in einer späteren Anwendung, welche zu einem signifikanten Einbruch der Klassifikationsrate führen kann. Bei der akustische Ereignisdetektion und Szenenklassifikation in akustischen Sensornetzen tritt dieses Problem verschärft auf, weil es eine sehr große Zahl möglicher Geräusche gibt und weil solche Netze in ganz unterschiedlichen geometrischen Konfigurationen und Umgebungen eingesetzt werden können. Aus diesem Grund werden die existierenden Datenbasen zur akustischen Ereignis- und Szenenklassifikation praktisch nie perfekt zu einer neuen Anwendung in einem akustischen Sensornetz passen.Das Hauptziel dieses Projektes ist es daher, Methoden zu entwickeln, die es ermöglichen, vorhandene Datenbasen trotz dieser Diskrepanz für konkrete Audioklassifikationsaufgaben in einem akustischen Sensornetz verwendbar zu machen. Wir nehmen an, dass schwach, d.h. nur mit der Ereignisklasse, nicht jedoch mit Zeitstempeln annotierte Daten von einer anderen Domäne vorhanden sind, und dass nichtannotierte Daten von der Zieldomäne vorliegen. Es werden nun Verfahren entwickelt, um aus einer schwachen Annotation eine starke Annotation zu berechnen, in der zusätzlich Anfangs- und Endzeiten von akustischen Ereignissen annotiert sind, um domäneninvariante Merkmale zu berechnen, sowie Verfahren, um eine Domänenadaption durchzuführen, um auf diese Weise Unterschiede zwischen Trainingsdaten und Testszenario zu überwinden. Wir untersuchen dabei auch eine Adaption zum Testzeitpunkt, um sich an veränderte akustische Umgebungen und Sensorkonfigurationen anzupassen. Dabei sollen vor allem tiefe generative neuronale Modelle zum Einsatz kommen. Geeignete Netzstrukturen und Zielfunktionen sind zu enwickeln, um die verschiedenen Einflussfaktoren auf die beobachtete Signalform voneinander zu trennen, insbesondere die von dem akustischen Ereignis hervorgerufene Variation von der durch die Umgebung hervorgerufenen Variation des Signals. Weiterhin werden wir Verfahren entwickeln, um ungewöhnliche akustische Ereignisse erkennen zu können, denn diese können für eine konkrete Anwendung von besonderer Bedeutung sein.
DFG-Verfahren Forschungsgruppen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung