
Recent Advances in Testing Techniques for AI Hardware Accelerators
Das rasante Wachstum von Big Data aus mobilen Geräten, dem Internet der Dinge (IoT) und Edge-Geräten sowie die anhaltende Nachfrage nach höherer Rechenleistung haben Deep Learning zum Eckpfeiler der meisten heutigen Anwendungen für künstliche Intelligenz (KI) gemacht. In den letzten Jahren wurde Deep Learning verstärkt auf domänenspezifischen KI-Beschleunigern implementiert, die benutzerdefinierte Speicherhierarchien, variable Präzision und optimierte Matrixmultiplikation unterstützen. Kommerzielle KI-Beschleuniger haben im Vergleich zu GPUs für eine Vielzahl von Inferenzaufgaben eine überlegene Energie- und Platzbedarfseffizienz gezeigt.
In dieser Monografie werden die Hindernisse erörtert, die verstanden und analysiert werden müssen, um die funktionale Robustheit neuer KI-Beschleuniger zu gewährleisten. Es werden die neuesten Praktiken für strukturelle und funktionale Tests von Beschleunigern vorgestellt sowie Methoden zur Bewertung der funktionalen Kritikalität von Hardwarefehlern in KI-Beschleunigern, um die Testzeit durch gezieltes Aufspüren funktional kritischer Fehler zu verkürzen.
In dieser Monografie werden die jüngsten Forschungsarbeiten zur Verbesserung der Tests und der Zuverlässigkeit neuromorpher Computersysteme vorgestellt, die mit nichtflüchtigen Speicherbausteinen (NVM) wie Spin-Transfer-Torque (STT-MRAM) und resistiven RAM (ReRAM) gebaut werden. Außerdem geht es um die Robustheit von neuronalen Netzen auf Siliziumbasis und die Zuverlässigkeit von monolithischen 3D (M3D)-basierten speicherähnlichen Computersystemen aufgrund von Herstellungsfehlern und Prozessschwankungen.