Detailseite
Projekt Druckansicht

Kreativität schützen: Auf dem Weg zu sicheren generativen Modellen

Fachliche Zuordnung Sicherheit und Verlässlichkeit, Betriebs-, Kommunikations- und verteilte Systeme
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung Förderung seit 2024
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 545047250
 
In jüngster Zeit haben generative Modelle des maschinellen Lernens (ML), wie ChatGPT und Stable diffusion, bei der Erstellung hochwertiger Texte und Bilder eine rasante Entwicklung erfahren. Daher resultiert die Notwendigkeit, die Sicherheit solcher Modelle zu gewährleisten. In unserem Projekt entwickeln wir Methoden, um sicherzustellen, dass die Modelle keinen unbeabsichtigten Schaden anrichten, insbesondere im Hinblick auf den Schutz der Vertraulichkeit und Integrität der verarbeiteten Daten. Darüber hinaus verhindern wir die Erzeugung schädlicher Inhalte und gewährleisten die Sicherheit der Modelle vor unrechtmäßiger Nutzung. Unser Projekt basiert auf einer grundlegenden Hypothese, dass die Sicherheit der generativen Modelle von der Art und Handhabung ihrer Trainingsdaten abhängt. Um diese Hypothese zu untersuchen und für eine sicherere Handhabung von generativen Modellen zu nutzen, werden wir in unserem Projekt drei Hauptziele verfolgen. Unser erstes Ziel ist die Erforschung der Lernmechanismen generativer Modelle, wobei wir uns insbesondere auf ihre Fähigkeit konzentrieren Trainingsdaten zu "memorisieren". Dieser Aspekt ist besonders kritisch, da er oft zur unbeabsichtigten Aufdeckung von sensiblem oder urheberrechtlich geschütztem Material während der Inferenzphase der Modelle führt. Unser zweites Ziel besteht darin, innovative Verifizierungstechniken für zwei primäre Szenarien zu entwickeln: 1) Einzelpersonen, wie z. B. Künstler sollen feststellen können, ob ihr kreatives Werk, wenn auch nicht ausdrücklich vom Modell memorisiert, beim Training des Modells unrechtmäßig verwendet wurde. 2) Modelleigentümern sollen die Möglichkeit erhalten, die Erzeugung potenziell schädlicher Inhalte durch ihre Modelle zu bestätigen oder zu widerlegen. Zuletzt erarbeiten wir Methoden, um sowohl generative Modelle als auch die Parteien, die sie unter großem Aufwand in Form von Rechenleistung und manueller Arbeit trainiert haben (in der Regel API-Anbieter), zu schützen. Unser Ansatz umfasst die Entwicklung aktiver Verteidigungsmaßnahmen gegen Modelldiebstahl. In Fällen, in denen es dennoch zu einem Diebstahl kommt, erforschen wir Techniken zur Klärung der Eigentumsverhältnisse, um solche Aktionen rechtlich anzufechten. Zusammenfassend zielt unser Projekt darauf ab, die Sicherheit von generativen Modellen zu verbessern, indem wir die Memorisierung von Daten untersuchen, Verifizierungstechniken entwickeln und Strategien zum Schutz von Modellen und Daten entwickeln. Durch die Zusammenstellung unserer Methoden zu einem sicheren generativen ML-Framework und dessen Validierung in realen Anwendungen möchten wir zu einem verantwortungsvollen Einsatz generativer Modelle beitragen und ihre Integrität und Vertraulichkeit in der sich entwickelnden Landschaft der künstlichen Intelligenz gewährleisten. Wir planen, unser Framework durch Lehrmaterial und eine Open-Source-Bibliothek zu verbreiten und die Wirksamkeit unserer Methoden in realen Anwendungen zu validieren.
DFG-Verfahren Sachbeihilfen
Internationaler Bezug Polen
Mitverantwortlich(e) Dr. Franziska Boenisch
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung