Dieses Projekt befaßt sich mit der Abschätzung von Überdeckungszahlen bestimmter Funktionenklassen, die typischerweise in Support Vector Machines und verwandter, kernbasierter Lernalgorithmen benutzt werden. Die Abschätzung erfolgt dabei nicht auf dem traditionellen Weg über eine VC-Dimension, sondern basiert auf einer kürzlich entwickelten Umformulierung, die es ermöglicht, Ungleichungen für Entropiezahlen von Operatoren auszunutzen. Unsere Arbeit konzentriert sich dabei auf zwei wesentliche Aspekte:· Asymptotisch optimale Abschätzungen, die für theoretische Überlegungen interessant sind. Insbesondere können auf diese Weise neue Ergebnisse über die Generalisierungsfähigkeit von Lernmaschinen abgeleitet werden.· Gute Abschätzungen für typischerweise verwendete Trainingsdatensatzgrößen und Fehlertoleranzen, um auf diese Weise Fragen wie a-priori Wahl des Kerns untersuchen zu können. Insbesondere werden hier auch die Konstanten abgeschätzt, deren Kenntnis für bestimmte Fragestellungen sehr wichtig ist.
DFG Programme
Research Grants