Maschinelles Lernen und digitale Wasserzeichen in feindlichen Umgebungen
Zusammenfassung der Projektergebnisse
Maschinelles Lernen wird zunehmend in sicherheitskritischen Anwendungen eingesetzt, wie zum Beispiel zur Schadsoftware-Erkennung oder im autonomen Fahren. Hier ist es wichtig, dass Angreifer die eingesetzten Lernalgorithmen selbst nicht umgehen oder täuschen können. Das Forschungsgebiet des “Adversarial Machine Learning” beschäftigt sich daher mit Angriffen und Verteidigungen für Lernalgorithmen. Parallel dazu untersucht das Forschungsgebiet des “Digital Watermarking”, wie digitale Medien gekennzeichnet werden können, ohne dass ein Angreifer die Markierung wieder entfernen oder extrahieren kann. Trotz unterschiedlicher Ziele weisen beide Gebiete eine überraschend ähnliche Angriffsfläche auf. Das von der DFG geförderte Projekt verfolgte das Ziel beide Gebiete zusammenzubringen. Zu diesem Zweck wurde eine Schnittstelle erarbeitet, die den Lern- und Markierungsprozess sowie Angriffe und Verteidigungen zusammenführt. Im Laufe des Projektes konnten diverse Angriffs- und Verteidigungskonzepte aus beiden Forschungsdisziplinen in die jeweilige andere Disziplin erfolgreich transferiert werden. Als nennenswertes Nebenprodukt dieser Forschung ist ein Transfer von Methoden auf den Bereich der Multimediasicherheit entstanden. Zudem konnten Angriffe studiert werden, die nicht nur das Lernsystem in einem Vektorraum täuschen, sondern auch reale Objekte erzeugen, wie zum Beispiel Programmcode.
Projektbezogene Publikationen (Auswahl)
- Adversarial Machine Learning Against Digital Watermarking, Proc. of the European Signal Processing Conference (EUSIPCO), 2018
E. Quiring and K. Rieck
(Siehe online unter https://doi.org/10.23919/EUSIPCO.2018.8553343) - Forgotten Siblings: Unifying Attacks on Machine Learning and Digital Watermarking, Proc. of the IEEE European Symposium on Security and Privacy (EuroS&P), 2018
E. Quiring, D. Arp, and K. Rieck
(Siehe online unter https://doi.org/10.1109/EuroSP.2018.00041) - Misleading Authorship Attribution of Source Code using Adversarial Learning, Proc. of the USENIX Security Symposium, 2019
E. Quiring, A. Maier, and K. Rieck
(Siehe online unter https://dl.acm.org/doi/10.5555/3361338.3361372) - On the Security and Applicability of Fragile Camera Fingerprints, Proc. of the European Symposium on Research in Computer Security (ESORICS), 2019
E. Quiring, M. Kirchner, and K. Rieck
(Siehe online unter https://doi.org/10.1007/978-3-030-29959-0_22) - Adversarial Preprocessing: Understanding and Preventing Image-Scaling Attacks in Machine Learning, Proc. of the USENIX Security Symposium, 2020
E. Quiring, D. Klein, D. Arp, M. Johns, and K. Rieck
(Siehe online unter https://dl.acm.org/doi/10.5555/3489212.3489289) - Against All Odds: Winning the Defense Challenge in an Evasion Competition with Diversification
E. Quiring, L. Pirch, M. Reimsbach, D. Arp, and K. Rieck
(Siehe online unter https://doi.org/10.48550/arXiv.2010.09569) - On the Security of Machine Learning Beyond the Feature Space, Dissertation, Technische Universität Braunschweig, Oktober 2021
E. Quiring
(Siehe online unter https://dx.doi.org/10.24355/dbbs.084-202111181527-0) - Dos and Don’ts of Machine Learning in Computer Security, Proc. of the USENIX Security Symposium, 2022
D. Arp, E. Quiring, F. Pendlebury, A. Warnecke, F. Pierazzi, C. Wressnegger, L. Cavallaro, and K. Rieck
(Siehe online unter https://doi.org/10.48550/arXiv.2010.09470)