Detailseite
Review-basierte Erklärungen für Empfehlungen im E-Commerce
Antragsteller
Professor Dr. Mathias Klier; Professor Dr. Steffen Zimmermann
Fachliche Zuordnung
Operations Management und BWL-spezifische Wirtschaftsinformatik
Förderung
Förderung seit 2024
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 544814728
Recommender Systeme können dazu beitragen, der Informationsüberflutung auf E-Commerce Plattformen entgegenzuwirken, indem sie NutzerInnen Produkte oder Dienstleistungen empfehlen, die ihren Präferenzen entsprechen. State-of-the-Art Recommender Systeme basieren auf Methoden der künstlichen Intelligenz (KI) und beziehen Reviews ein, um eine hohe Empfehlungsgüte zu erreichen. Diese Systeme sind für NutzerInnen allerdings Blackboxes. In der Folge sind das Vertrauen in diese Systeme und die Bereitschaft, deren Empfehlungen zu folgen, bei vielen NutzerInnen begrenzt. Das aufstrebende Forschungsfeld Explainable Artificial Intelligence (XAI) zielt darauf ab, automatisiert Erklärungen zu Entscheidungen und Funktionsweisen von KI-Systemen zu generieren. Nutzerzentrierte Erklärungen können Vertrauen steigern, indem sie NutzerInnen von Recommender Systemen helfen, die Empfehlungen informiert zu hinterfragen. Darüber hinaus bietet die Integration von Reviews in die Erklärungen das Potenzial, das Vertrauen von NutzerInnen weiter zu erhöhen, da diese als vertrauenswürdige Informationsquelle gelten. Es existieren jedoch noch keine Erklärmethoden, die unter Einbezug von Reviews nutzerzentrierte Erklärungen für Recommender Systeme erzeugen können. Daher wird im geplanten Vorhaben „Review-basierte Erklärungen für Empfehlungen im E-Commerce“ die folgende Forschungsfrage adressiert: Wie können automatisiert Review-basierte Erklärungen generiert werden, die das Zustandekommen von Empfehlungen aus Review-basierten Recommender Systemen offenlegen, um dadurch das Vertrauen und die Akzeptanz von NutzerInnen zu erhöhen? Das Forschungsvorhaben ist der gestaltungsorientierten Wirtschaftsinformatik zuzuordnen und umfasst zwei Teilprojekte T1 und T2. In T1 wird eine neue nutzerzentrierte Erklärmethode entwickelt, die Review-basierte Erklärungen für Empfehlungen von Recommender Systemen generiert. Dies umfasst die Entwicklung von drei Kernkomponenten: Strukturierung von Reviews nach für Menschen relevanten Konzepten (Kernkomponente 1), systematische Variation von Reviews auf Basis der für Menschen relevanten Konzepte (Kernkomponente 2) sowie Ermittlung der Einflüsse auf die Empfehlung durch die systematische Variation von Reviews und Generierung von nutzerzentrierten Erklärungen (Kernkomponente 3). In T2 wird die Erklärmethode funktional und nutzerbezogen hinsichtlich mehrerer Zielkriterien inklusive Nutzervertrauen und Nutzerakzeptanz evaluiert und im Rahmen von Design Zyklen weiterentwickelt. Abschließend wird die Erklärmethode im Rahmen eines Feldexperiments anwendungsbezogen evaluiert, um den Mehrwert der Methode hinsichtlich des realen (ökonomischen) Nutzerverhaltens zu untersuchen (z.B. Akzeptanz der Empfehlungen). Resultate der verzahnten Teilprojekte sind eine neue Erklärmethode, die Review-basierte Erklärungen für Empfehlungen von Recommender Systemen generiert, sowie Erkenntnisse hinsichtlich deren Mehrwerts und Auswirkungen auf das Nutzerverhalten.
DFG-Verfahren
Sachbeihilfen