Detailseite
Projekt Druckansicht

Künstliche Intelligenz in der privaten Altersvorsorge: Chancen und Risiken

Fachliche Zuordnung Accounting und Finance
Förderung Förderung seit 2024
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 552870289
 
Künstliche Intelligenz in Form von Large Language Modellen (LLM) ermöglicht es technisch versierten Laien, komplexe Aufgaben in Bereichen durchzuführen, in denen sie keine Experten sind. Die private Altersvorsorge stellt aufgrund des hohen Bedarfs nach Anlageberatung einen vielversprechenden Anwendungsbereich von LLM dar. Das Potential von LLM im Finanzbereich lässt sich auch an der frühen Adoption solcher Tools durch führende Vermögensverwalter und -berater erkennen. Das Ziel des Forschungsprojekts ist die Identifikation von Potentialen und Risiken für Anleger:innen und Anbieter, die aus der Nutzung KI-gestützter Unterstützungssysteme resultieren sowie die Ableitung möglicher Regulierungsbedarfe. Untersucht werden die Qualität der von LLM generierten Anlageempfehlungen, die Determinanten der Nutzerakzeptanz, sowie mögliche Risiken bzw. Hemmnisse der Nutzung im Anlagekontext. Um das Potential von LLMs in der Anlageberatung zu bewerten, muss zwischen der Leistungsfähigkeit der Empfehlung selbst (bspw. als risikobereinigte Rendite gemessen) und der Effektivität der Beeinflussung der Anlegerin oder des Anlegers (bspw. als weight of advice, also der Verhaltensänderung zur Empfehlung hin, gemessen) unterschieden werden. Beide Aspekte sind bei einer Evaluation der Leistungsfähigkeit wichtig. Um eine Verbesserung des individuellen Anlageverhaltens herbeizuführen, muss ein LLM hinreichend leistungsstarke Empfehlungen generieren, welche wiederum zu einem hinreichenden Grad von Nutzer:innen akzeptiert und übernommen werden. Das Projekt wird zudem zwei zentrale Risiken von LLM-basierten Entscheidungsunterstützungssystemen untersuchen: algorithmische Verzerrungen (algorithmic bias) und Datenschutz- und Datensicherheitsrisiken. Algorithmische Verzerrungen wirken sich potentiell negativ auf die Qualität und Akzeptanz der von LLMs generierten Anlageempfehlungen aus. Zudem ist für die Erstellung von Anlageempfehlungen die Bereitstellung sensibler Daten notwendig, was sich aufgrund der inhärenten Datenschutz- und Datensicherheitsrisiken potentiell negativ auf die Akzeptanz auswirkt.
DFG-Verfahren Sachbeihilfen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung