Detailseite
SPP 1527: Autonomes Lernen
Fachliche Zuordnung
Informatik, System- und Elektrotechnik
Biologie
Mathematik
Medizin
Physik
Sozial- und Verhaltenswissenschaften
Biologie
Mathematik
Medizin
Physik
Sozial- und Verhaltenswissenschaften
Förderung
Förderung von 2011 bis 2020
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 172415596
Die Erforschung der Grundlagen des Lernens hatte in den letzten Jahrzehnten beachtliche Erfolge vorzuweisen. Die Methoden des maschinellen Lernens und der statistischen Lerntheorie sind heute aus vielen technischen und naturwissenschaftlichen Anwendungen nicht mehr wegzudenken. In der Praxis sind diese Methoden jedoch in erheblichem Maße von einem menschlichen Experten abhängig, der die Trainingsbeispiele auswählt und die Daten in einer vorverarbeiteten Form repräsentiert, der entscheidet, welcher Lernalgorithmus mit welchen Parametern angewandt wird, und der schließlich die Struktur und die intern genutzten Repräsentationen (z.B. Merkmalsvektoren) des Systems festlegt. Dies widerspricht der Intention, dass die Fähigkeit zu lernen ein System flexibler und autonomer machen sollte, und steht im Kontrast zum Lernen, wie wir es in biologischen Systemen finden. Das Ziel dieses Schwerpunktprogramms ist die Erforschung der Grundlagen des autonomen Lernens. Insbesondere werden neue Konzepte und Methoden entwickelt, die den nächsten Schritt machen, vom bisherigen maschinellen Lernen zu einem autonomen Lernen in Systemen, die mit einer variablen, nur partiell modellierbaren Umwelt hoher Komplexität interagieren und diese explorieren. Kernaspekte des autonomen Lernens sind: (1) die autonome Wahl von Parametern, Repräsentationen und genutzten Strukturen beim Lernen, unabhängig von einem menschlichen Experten, (2) die autonome Auswahl dessen, was gelernt wird, d.h. die autonome Exploration und die aktive Suche nach Information, statt des Lernens aus vorgegebenen Datensätzen, (3) das Finden geeigneter Repräsentationen, insbesondere das Lernen hierarchischer Repräsentationen, (4) das inkrementelle Aufbauen immer abstrakterer Ebenen der Repräsentation von Stimuli, Handlungen und Prozessen. Existierende Methoden des maschinellen Lernens, vor allem des Reinforcement-Lernens, und der autonomen Robotik bieten Ausgangspunkte und Basismethoden für die Erforschung solcher Lernprozesse. Darauf aufbauend wird nun der nächste Schritt in Richtung vollständiger Autonomie des Lernsystems gemacht.
DFG-Verfahren
Schwerpunktprogramme
Internationaler Bezug
Kanada
Projekte
- Aktive Exploration in den hochdimensionalen Daten einer künstlichen Haut (Antragsteller Knoll, Alois ; Strohmayr, Michael )
- Auto-Tune: Automatische Strukturoptimierung von Lernalgorithmen auf großen Datensätzen (Antragsteller Brox, Thomas ; Hennig, Philipp ; Hutter, Ph.D., Frank )
- Autonomes Aktives Lernen von Objektwissen mit Manipulationsrobotern (Antragsteller Behnke, Sven ; Burgard, Wolfram )
- Autonomes Lernen für Bayes'sche kognitive Robotik (Antragsteller Beetz, Ph.D., Michael )
- Autonomes Lernen in der sensomotorischen Schleife - ein informationstheoretischer Zugang (Antragsteller Ay, Nihat )
- Autonomes und effizient skalierbares Deep Learning (Antragsteller Lücke, Jörg )
- Autonomous Learning of Bipedal Walking Stabilization (Antragsteller Behnke, Sven )
- Bayessches Lernen einer hierarchischen Repräsentation von Sprache aus gesprochener Eingabe (Antragsteller Häb-Umbach, Reinhold )
- Das Erlernen von Verhaltensmustern in der Sensomotorischen Schleife: Experimente mit Animaten (Antragsteller Pasemann, Frank )
- Der Entwicklungsprozess als Form des autonomen Lernens: Emergente Stufen der Entwicklung von der Sensomotorik zur Kognition (Antragsteller Schöner, Gregor )
- Die Physical Exploration Challenge: Roboter, die lernen, Freiheitsgrade der Welt zu entdecken, zu bewegen und zu explorieren (Antragsteller Brock, Oliver ; Toussaint, Marc )
- Effizientes Aktives Online Lernen für 3D Rekonstruktion und Szenenverstehen (Antragsteller Cremers, Daniel ; Triebel, Rudolph )
- Koordinationsprojekt SPP 1527 "Autonomes Lernen" (Antragsteller Toussaint, Marc )
- Lernen effizienter Abtastung für das aktive Sehen (Antragsteller Martinetz, Thomas )
- Lernen von dynamisiertem Feedback in Intelligenten Tutorsystemen (Antragstellerinnen / Antragsteller Hammer, Barbara ; Pinkwart, Niels )
- Lernen von Modularen Aktionsrepräsentationen für motorische Fertigkeiten von Robotern (Antragsteller Neumann, Gerhard ; Peters, Ph.D., Jan Reinhard )
- Methoden des Spracherwerbs basierend auf spärlicher Kodierung (Antragsteller Häb-Umbach, Reinhold )
- Problemübergreifendes Hyperparameter-Lernen (Antragsteller Schmidt-Thieme, Lars )
- Reinforcement Learning mit qualitativem Feedback (Antragsteller Fürnkranz, Johannes ; Hüllermeier, Eyke )
- Relationale Exploration, Lernen und Inferenz - Grundlagen des Autonomen Lernens in natürlichen Umgebungen (Antragsteller Kersting, Kristian ; Toussaint, Marc )
- Robots Exploring Tools as Extensions to their Body Autonomously (Antragsteller Asfour, Tamim ; Ritter, Helge )
- Skalierbares Autonomes Selbstverstärkendes Lernen durch Reduzierung der Vorstrukturierung (Antragsteller Bödecker, Joschka ; Peters, Ph.D., Jan Reinhard )
- Theoretische Konzepte für co-adaptive Mensch-Maschine-Interaktion mit Anwendungen auf BCI (Antragsteller Müller, Klaus-Robert )
- Unüberwachtes Lernen von hierarchischen Bildrepräsentationen auf der Basis von probabilistischen Modellen (Antragsteller Bethge, Matthias )
- Verknüpfung von metrischen und symbolischen Ebenen in autonomen Reinforcement Lernen (Antragsteller Obermayer, Klaus )
Sprecher
Professor Dr. Marc Toussaint