SPP 1527:
Autonomes Lernen
Fachliche Zuordnung
Informatik, System- und Elektrotechnik
Biologie
Mathematik
Medizin
Physik
Sozial- und Verhaltenswissenschaften
Förderung
Förderung von 2011 bis 2020
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 172415596
Die Erforschung der Grundlagen des Lernens hatte in den letzten Jahrzehnten beachtliche Erfolge vorzuweisen. Die Methoden des maschinellen Lernens und der statistischen Lerntheorie sind heute aus vielen technischen und naturwissenschaftlichen Anwendungen nicht mehr wegzudenken. In der Praxis sind diese Methoden jedoch in erheblichem Maße von einem menschlichen Experten abhängig, der die Trainingsbeispiele auswählt und die Daten in einer vorverarbeiteten Form repräsentiert, der entscheidet, welcher Lernalgorithmus mit welchen Parametern angewandt wird, und der schließlich die Struktur und die intern genutzten Repräsentationen (z.B. Merkmalsvektoren) des Systems festlegt. Dies widerspricht der Intention, dass die Fähigkeit zu lernen ein System flexibler und autonomer machen sollte, und steht im Kontrast zum Lernen, wie wir es in biologischen Systemen finden.
Das Ziel dieses Schwerpunktprogramms ist die Erforschung der Grundlagen des autonomen Lernens. Insbesondere werden neue Konzepte und Methoden entwickelt, die den nächsten Schritt machen, vom bisherigen maschinellen Lernen zu einem autonomen Lernen in Systemen, die mit einer variablen, nur partiell modellierbaren Umwelt hoher Komplexität interagieren und diese explorieren. Kernaspekte des autonomen Lernens sind: (1) die autonome Wahl von Parametern, Repräsentationen und genutzten Strukturen beim Lernen, unabhängig von einem menschlichen Experten, (2) die autonome Auswahl dessen, was gelernt wird, d.h. die autonome Exploration und die aktive Suche nach Information, statt des Lernens aus vorgegebenen Datensätzen, (3) das Finden geeigneter Repräsentationen, insbesondere das Lernen hierarchischer Repräsentationen, (4) das inkrementelle Aufbauen immer abstrakterer Ebenen der Repräsentation von Stimuli, Handlungen und Prozessen.
Existierende Methoden des maschinellen Lernens, vor allem des Reinforcement-Lernens, und der autonomen Robotik bieten Ausgangspunkte und Basismethoden für die Erforschung solcher Lernprozesse. Darauf aufbauend wird nun der nächste Schritt in Richtung vollständiger Autonomie des Lernsystems gemacht.
DFG-Verfahren
Schwerpunktprogramme
Internationaler Bezug
Kanada
Projekte
-
Aktive Exploration in den hochdimensionalen Daten einer künstlichen Haut
(Antragsteller
Knoll, Alois
;
Strohmayr, Michael
)
-
Auto-Tune: Automatische Strukturoptimierung von Lernalgorithmen auf großen Datensätzen
(Antragsteller
Brox, Thomas
;
Hennig, Philipp
;
Hutter, Ph.D., Frank
)
-
Autonomes Aktives Lernen von Objektwissen mit Manipulationsrobotern
(Antragsteller
Behnke, Sven
;
Burgard, Wolfram
)
-
Autonomes Lernen für Bayes'sche kognitive Robotik
(Antragsteller
Beetz, Ph.D., Michael
)
-
Autonomes Lernen in der sensomotorischen Schleife - ein informationstheoretischer Zugang
(Antragsteller
Ay, Nihat
)
-
Autonomes und effizient skalierbares Deep Learning
(Antragsteller
Lücke, Jörg
)
-
Autonomous Learning of Bipedal Walking Stabilization
(Antragsteller
Behnke, Sven
)
-
Bayessches Lernen einer hierarchischen Repräsentation von Sprache aus gesprochener Eingabe
(Antragsteller
Häb-Umbach, Reinhold
)
-
Das Erlernen von Verhaltensmustern in der Sensomotorischen Schleife: Experimente mit Animaten
(Antragsteller
Pasemann, Frank
)
-
Der Entwicklungsprozess als Form des autonomen Lernens: Emergente Stufen der Entwicklung von der Sensomotorik zur Kognition
(Antragsteller
Schöner, Gregor
)
-
Die Physical Exploration Challenge: Roboter, die lernen, Freiheitsgrade der Welt zu entdecken, zu bewegen und zu explorieren
(Antragsteller
Brock, Oliver
;
Toussaint, Marc
)
-
Effizientes Aktives Online Lernen für 3D Rekonstruktion und Szenenverstehen
(Antragsteller
Cremers, Daniel
;
Triebel, Rudolph
)
-
Koordinationsprojekt SPP 1527 "Autonomes Lernen"
(Antragsteller
Toussaint, Marc
)
-
Lernen effizienter Abtastung für das aktive Sehen
(Antragsteller
Martinetz, Thomas
)
-
Lernen von dynamisiertem Feedback in Intelligenten Tutorsystemen
(Antragstellerinnen / Antragsteller
Hammer, Barbara
;
Pinkwart, Niels
)
-
Lernen von Modularen Aktionsrepräsentationen für motorische Fertigkeiten von Robotern
(Antragsteller
Neumann, Gerhard
;
Peters, Ph.D., Jan Reinhard
)
-
Methoden des Spracherwerbs basierend auf spärlicher Kodierung
(Antragsteller
Häb-Umbach, Reinhold
)
-
Problemübergreifendes Hyperparameter-Lernen
(Antragsteller
Schmidt-Thieme, Lars
)
-
Reinforcement Learning mit qualitativem Feedback
(Antragsteller
Fürnkranz, Johannes
;
Hüllermeier, Eyke
)
-
Relationale Exploration, Lernen und Inferenz - Grundlagen des Autonomen Lernens in natürlichen Umgebungen
(Antragsteller
Kersting, Kristian
;
Toussaint, Marc
)
-
Robots Exploring Tools as Extensions to their Body Autonomously
(Antragsteller
Asfour, Tamim
;
Ritter, Helge
)
-
Skalierbares Autonomes Selbstverstärkendes Lernen durch Reduzierung der Vorstrukturierung
(Antragsteller
Bödecker, Joschka
;
Peters, Ph.D., Jan Reinhard
)
-
Theoretische Konzepte für co-adaptive Mensch-Maschine-Interaktion mit Anwendungen auf BCI
(Antragsteller
Müller, Klaus-Robert
)
-
Unüberwachtes Lernen von hierarchischen Bildrepräsentationen auf der Basis von probabilistischen Modellen
(Antragsteller
Bethge, Matthias
)
-
Verknüpfung von metrischen und symbolischen Ebenen in autonomen Reinforcement Lernen
(Antragsteller
Obermayer, Klaus
)