Detailseite
Künstliche Robustheit für zukünftige intelligente Systeme mithilfe von maschinell erlernten Test- und Debugverfahren
Antragsteller
Professor Mehdi B. Tahoori, Ph.D.
Fachliche Zuordnung
Rechnerarchitektur, eingebettete und massiv parallele Systeme
Elektronische Halbleiter, Bauelemente und Schaltungen, Integrierte Systeme, Sensorik, Theoretische Elektrotechnik
Elektronische Halbleiter, Bauelemente und Schaltungen, Integrierte Systeme, Sensorik, Theoretische Elektrotechnik
Förderung
Förderung seit 2022
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 495168954
Komplexe Rechensysteme der heutigen und zukünftigen Zeit bestehen aus einer Vielzahl von Hardware- und Softwarekomponenten, welche unterschiedliche Anforderungen an Zuverlässigkeit, Performanz, Funktionalität und Ressourcen stellen. Zusammen mit zunehmender Miniaturisierung bis hin zu Nanometer-Strukturen führt das zu neuen Fehlermechanismen, komplexen Design-Bugs und bösartigen Angriffen, weshalb bisherige brute-force Ansätze mit fest definierten Redundanzen sowie Wiederherstellungs-Strategien nicht mehr ausreichend sind. Diese zunehmende Komplexität zusammen mit komplexer Interaktion zur Laufzeit von Software und Geräte-Parametern, die nicht vollständig erfasst oder modelliert werden können, führt zu "Heisenbugs", welche in der pre-silicon Validierungsphase nicht erkannt werden.Fehlertoleranz, Herstellungstests und post-silicon Debugging sind Bereiche mit vielen Gemeinsamkeiten bezüglich der ursprünglichen Fehlerquellen. Jedoch werden die vorhandenen Probleme in jedem dieser Bereiche mithilfe unterschiedlicher Infrastrukturen und Design-Lösungen adressiert. Dies rührt teilweise daher, dass in jedem dieser Felder durch separate akademische Communities und Industrie-Abteilungen geforscht und entwickelt wird. Jeder Bereich zielt auf die Behebung bestimmter Fehlerklassen und Fehlfunktionen durch starre örtliche und zeitliche Redundanzen, die fest ins Design programmiert werden und zu exorbitanten Kostenerhöhungen bezüglich verbrauchter Fläche, Energie und Performanz führen. Die Ineffizienz der bestehenden Ansätze, welche auf traditioneller deterministischer Analyse der binären, logischen Zustände der Schaltungen und Systeme basieren, wird durch die erwähnte zunehmende Komplexität der Probleme, welche im Hardware-Design, in der Herstellung und im Einsatz zur Laufzeit auftreten und behoben werden müssen, zunehmend erhöht. Auch das Hinzufügen weiterer verschiedener Design-Infrastruktur und -Lösungen um diese Probleme isoliert zu betrachten skaliert nicht mehr.Das Hauptziel dieses Vorhabens ist die künstliche Robustheit von Rechensystemen durch verschiedene ganzheitliche Ansätze, die den gesamten Lebenszyklus des Systems vom Design über Testphase bis hin zum Betrieb beinhalten, um die benötigte Funktionalität trotz fehlerhafter Komponenten, Umwelteinflüssen oder Design-Bugs zu erhalten. Unser Modell der künstlichen Robustheit ist Ziel einer Architektur - basierend auf einer großen Anzahl an Sensordaten und deren Analyse durch maschinelles Lernen - und stellt die hauptsächliche Neuheit in diesem Projekt dar. Zudem werden wir in Form einer Machbarkeitsstudie und einem Proof-of-concept untersuchen, wie unser Ansatz auf die verschiedenen Herausforderungen und Probleme der Herstellungs-, Design- und Debug-Phasen zugeschnitten werden kann.
DFG-Verfahren
Sachbeihilfen