Detailseite
SPP 2298: Theoretische Grundlagen von Deep Learning
Fachliche Zuordnung
Mathematik
Informatik, System- und Elektrotechnik
Materialwissenschaft und Werkstofftechnik
Medizin
Physik
Informatik, System- und Elektrotechnik
Materialwissenschaft und Werkstofftechnik
Medizin
Physik
Förderung
Förderung seit 2021
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 441826958
Das Schwerpunktprogramm (SPP) "Theoretische Grundlagen von Deep Learning" wird an der LMU München koordiniert. Dazu gehören die Organisation der verschiedenen geplanten Kooperations- und Netzwerkaktivitäten wie Jahreskonferenzen, Workshops, Minitutorials und Winterschulen, die Koordination der Auswahl und Einladung von PP-Gastprofessorinnen und -Gastprofessoren sowie PP-Fellows, die Einrichtung und Pflege einer Webseite sowie die Bereitstellung eines Newsletters und die Betreuung eines Preprint-Servers. Auch alle PR Aktivitäten bedürfen der Organisation. Darüber hinaus wollen wir den wissenschaftlichen Nachwuchs wie auch Forscherinnen durch verschiedene Maßnahmen fördern, die koordiniert werden müssen.
DFG-Verfahren
Schwerpunktprogramme
Internationaler Bezug
Frankreich, Großbritannien, Kanada, Österreich, USA
Projekte
- Adaptive Neuronale Tensor Netzwerke für parametrische Partielle Differentialgleichungen (Antragsteller Eigel, Martin ; Grasedyck, Lars )
- Aspekte der Statistischen Analyse von Trainingstrajektorien von tiefen neuronalen Netzen (Antragsteller Steinwart, Ingo )
- Auf dem Weg zu einer überall verlässlichen Klassifizierung - Ein gemeinsamer Rahmen für Robustheit gegen böswillige Attacken und die Erkennung von Out-of-Distribution Eingaben (Antragsteller Hein, Matthias )
- Beschleunigung von Diffussionsmodellen durch dünnbesetzte neuronale Netze (Antragsteller Lederer, Johannes )
- Beweisbare Robustheitszertifizierung von Neuronalen Netzen für Graphen (Antragsteller Günnemann, Stephan )
- Deep Learning aus der Perspektive von Wahrscheinlichkeit und Geometrie (Antragsteller Hennig, Philipp )
- Deep-Learning basierte Regularisierung inverser Probleme (Antragstellerinnen / Antragsteller Burger, Martin ; Kutyniok, Gitta )
- Deep Learning für nicht-lokale partielle Differentialgleichungen (Antragstellerinnen / Antragsteller Jentzen, Arnulf ; Kutyniok, Gitta )
- Generative Modelle für Bayesche Inverse Probleme in der Bildverarbeitung
- GeoMAR: Geometrische Methoden für Adversarial Robustness (Antragsteller Bungert, Leon ; Schwinn, Ph.D., Leo )
- Global optimales Training von Neuronalen Netzen (Antragsteller Pfetsch, Marc Emanuel ; Pokutta, Sebastian )
- Impliziter Bias im adversariellen Training (Antragsteller Fornasier, Massimo ; Rauhut, Holger )
- Kombinatorische und implizite Methoden für Deep Learning - Phase II (Antragsteller Montúfar, Guido )
- Koordinationsfonds (Antragstellerin Kutyniok, Gitta )
- Lösungsverfahren für lineare inverse Probleme basierend auf neuronalen Netzen: Generalisierung, Robustheit und Quantifizierung von Unsicherheiten (Antragsteller Heckel, Reinhard ; Krahmer, Ph.D., Felix )
- Meanfield Theorie zur Analysis von Deep Learning Methoden (Antragsteller Herty, Michael )
- Mehrphasige probabilistische Optimierer für tiefe Lernprobleme (Antragsteller Hennig, Philipp )
- Multilevel-Architekturen und -Algorithmen im Deep Learning (Antragsteller Herzog, Roland ; Schiela, Anton )
- Multiskalendynamik neuronaler Netze über stochastische Graphoperatoren (Antragsteller Engel, Maximilian ; Kühn, Ph.D., Christian )
- Nichtlineare optimale Feedback-Regelung mit tiefen neuronalen Netzen ohne den Fluch der Dimension: Räumlich abnehmende Sensitivität und nichtglatte Probleme (Antragsteller Grüne, Lars )
- Operator Learning für Optimalsteuerung: Approximation und Statistische Theorie (Antragstellerinnen / Antragsteller Herberg, Evelyn ; Wang, Sven ; Zech, Jakob )
- Optimaler Transport und Maßoptimierungsgrundlage für robustes und kausales maschinelles Lernen (Antragsteller Zhu, Jia-Jie )
- Robuste und Interpretierbare Regularisierung für Inverse Probleme in der Medizinischen Bildverarbeitung (Antragsteller Kobler, Erich ; Neumayer, Sebastian )
- Spiking Neural Networks: Theoretische Grundlagen, Vertrauenswürdigkeit und Energie-Effizienz (Antragstellerinnen / Antragsteller Boche, Holger ; Kutyniok, Gitta )
- Statistische Grundlagen des halb-überwachten Lernens mit Graph-Neural-Networks (Antragsteller Ghoshdastidar, Ph.D., Debarghya )
- Strukturerhaltende tiefe neuronale Netze zur Beschleunigung der Lösung der Boltzmanngleichung (Antragsteller Frank, Martin ; Krumscheid, Sebastian )
- Theoretischer Grundlagen des Unsicherheits-robusten Deep Learning für Inverse Probleme (Antragsteller Burger, Martin ; Möller, Michael )
- Theorie der tiefen Anomalieerkennung (Antragsteller Kloft, Marius )
- Tiefe neuronale Netzwerke überwinden den Fluch der Dimensionalität in der numerischen Approximation von stochastischen Kontrollproblemen und von semilinearen Poisson Gleichungen (Antragsteller Hutzenthaler, Martin ; Kruse, Thomas )
- Tiefe Zuweisungsflüsse für die strukturierte Klassifikation von Daten: Entwurf, Lernverfahren und prädiktive Genauigkeit (Antragsteller Schnörr, Christoph )
- Unsicherheitsquantifizierungsgarantien für Graphenneuronale Netze (Antragsteller Bojchevski, Aleksandar )
- Verbesserte Techniken des tiefen Lernens zum Sampling von Moleküldynamik im thermodynamischen Gleichgewicht mithilfe von optimalem Transport (Antragsteller Friesecke, Gero )
- Über die Konvergenz von Variational Deep Learning zu Entropie-Summen (Antragstellerinnen / Antragsteller Fischer, Asja ; Lücke, Jörg )
Sprecherin
Professorin Dr. Gitta Kutyniok