Detailseite
Robuste sequentielle Analyse
Antragsteller
Professor Dr.-Ing. Abdelhak Zoubir
Fachliche Zuordnung
Elektronische Halbleiter, Bauelemente und Schaltungen, Integrierte Systeme, Sensorik, Theoretische Elektrotechnik
Förderung
Förderung von 2017 bis 2020
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 390542458
Die sequentielle Analyse befasst sich mit Problemen der statistischen Inferenz, bei denen die Anzahl der Beobachtungen nicht fix ist, sondern mit der Zeit zunimmt. Ziel ist die Minimierung der im Mittel für eine gewünschte Verlässlichkeit benötigten Beobachtungen. Es wurde wiederholt gezeigt, dass sequentielle Verfahren deutlich effizienter sind als herkömmliche Verfahren. Sie finden unter anderem Anwendung in der Medizintechnik, Umweltbeobachtung, Qualitätskontrolle, Gefahrenerkennung, Bildverarbeitung sowie beim Spectrum Sensing.Robuste Verfahren in der Statistik basieren auf der Idee, Effizienz unter optimalen Bedingungen zu Gunsten einer reduzierten Empfindlichkeit gegenüber Abweichungen vom Idealfall zu opfern. Sie werden daher so entworfen, dass sie in einer Umgebung des angenommenen Modells zuverlässig funktionieren. D.h., sie tolerieren kleinere, zufällige Modellabweichungen und bilden so einen Mittelweg zwischen parametrischen und nichtparametrischen Verfahren.In diesem Projekt sollen die Vorzüge der sequentiellen Statistik mit denen der robusten Statistik verknüpft werden: Die sequentielle Ausführung eines robusten Verfahrens kann dessen geringere Effizienz kompensieren, die Robustifizierung eines sequenziellen Verfahrens kann dessen Anfälligkeit gegenüber Modellabweichungen reduzieren.Das Projekt hat zwei Hauptziele. Das erste Ziel ist die Entwicklung eines theoretischen Gerüsts, welches robuste sequentielle Detektion und Schätzung vereinheitlicht. Wir erwarten, dass dieselben mathematischen Werkzeuge, die wir in früheren Arbeiten entwickelt haben, um minimax Lösungen sequentieller binärer Hypothesentests zu charakterisieren, auf multiple Hypothesentests sowie gemeinsame Schätzung und Detektion angewandt werden können. Dies impliziert, dass die minimax optimalen Detektoren und Schätzer durch Fredholm Integralgleichungen bestimmt sind und die entsprechenden Wahrscheinlichkeitsverteilungen durch eine zustandsabhängige Familie sogenannter f-dissimilarities.Das zweite Ziel ist die Entwicklung praktischer Algorithmen. Dabei zielen wir wieder auf einen einheitlichen Ansatz ab, der auf alle wohldefinierten Inferenzprobleme angewandt werden kann. Zudem wollen wir Annahmen über Anwendungen und Arten von Verteilungen vermeiden und uns auf die Analyse der mathematische Struktur des Problems konzentrieren. Die zwei zentralen Aufgaben sind daher die Lösung von Fredhom Integralgleichungen sowie die Minimierung von f-dissimilarities über konvexe Mengen von Verteilungen.Da es zwei Kernkompetenzen des Fachgebiets zusammenführt, steht das Projekt auf einem soliden Fundament existierender Vorarbeiten und Erfahrungen. Das Fachgebiet Signalverarbeitung wird international für seine Arbeiten zur robusten Signalverarbeitung geschätzt und hat in den letzten Jahren anerkannte Beiträge zur robusten und sequentiellen Detektion geleistet. Wir sehen uns daher in einer besonders guten Ausgangslage das beantragte Projekt erfolgreich abzuschließen.
DFG-Verfahren
Sachbeihilfen