Detailseite
Daten, Theorien und wissenschaftliche Erklärung: Das Beispiel der Astroteilchenphysik
Antragstellerinnen / Antragsteller
Professorin Dr. Brigitte Falkenburg; Professor Dr. Wolfgang Rhode
Fachliche Zuordnung
Theoretische Philosophie
Förderung
Förderung seit 2024
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 548023664
In interdisziplinärer Kooperation zwischen Philosophie und Astroteilchenphysik untersuchen wir die Methoden und Erklärungsleistungen der Astroteilchenphysik (ATP) als Beispiel der aktuellen physikalischen Praxis. Mit Schwerpunkt auf den Methoden der Computer-Simulation und des maschinellen Lernens, die man zur Datenanalyse einsetzt, behandeln wir erkenntnistheoretische Fragen der Theoriegeladenheit der Daten und der probabilistischen sowie kausal-mechanistischen Erklärung in der ATP. Die ATP schlägt die Brücke zwischen Astrophysik, Kosmologie und Teilchenphysik. Sie registriert die kosmische Strahlung mit Systemen von Teilchendetektoren, die als Teleskope zur Messung subatomarer Teilchen extraterrestrischen Ursprungs fungieren. Ziel der ATP ist, die Herkunft dieser Strahlung zu bestimmen und ihre physikalischen Eigenschaften zu erklären, vor allem ihre hohe Energie und die Mechanismen ihrer Entstehung und Beschleunigung. Die physikalische Erklärung stützt sich auf astrophysikalische Modelle der Strahlungsquellen (Supernovae, aktive galaktische Kerne etc.), kernphysikalische Modelle der Teilchenemission sowie Plasmaphysik zur Erklärung der Beschleunigung der emittierten geladenen Teilchen. Aus den Primärteilchen entstehen Sekundärteilchen wie Neutrinos, die ohne Streuung durch interstellares Gas oder Ablenkung durch intergalaktische Magnetfelder zur Erde gelangen; ihre Produktion und Messung ist Gegenstand der Teilchenphysik. Die ATP vermittelt so zwischen den Daten und mehreren physikalischen Theorien, die den disparaten Standardmodellen der Teilchenphysik und der Kosmologie zugrunde liegen. In der ATP bündeln sich damit viele Probleme, die heute die Wissenschaften generell auszeichnen und die aktuell in der Wissenschaftsphilosophie diskutiert werden: der Einfluss von Computer-Simulationen und maschinellem Lernen auf die Datenproduktion; die Intransparenz des maschinellen Lernens und die epistemische Signifikanz dieser Intransparenz; die oftmals inkohärenten Grundlagen der Modellbildung; probabilistische und kausal-mechanistische Erklärungen; der induktive Schluss von den Phänomenen auf ihre Ursachen. Im Projekt analysieren wir die Datenanalyse der ATP einschließlich der Rolle von Computer-Simulationen und maschinellem Lernen im Hinblick auf ihren probabilistischen Charakter und die epistemische Signifikanz der Intransparenz dieser Methoden, und wir vergleichen sie mit den entsprechenden Methoden der Teilchenphysik sowie der Radioastronomie. Dabei steht der innovative probabilistische Charakter der zur Datenanalyse eingesetzten Methoden des maschinellen Lernens im Zentrum. Außerdem untersuchen wir das heuristische Konzept der Botenteilchen, das zentral für die kausal-mechanistischen Erklärungen der ATP ist, und diskutieren es im Kontext aktueller Messergebnisse der ATP. Das Projekt wird auch neues Licht auf die philosophische Frage werfen, inwieweit physikalische Theorien und theorieabhängige Daten realistisch gedeutet werden dürfen.
DFG-Verfahren
Sachbeihilfen