Bewertung:

Derzeit gibt es keine Leserbewertungen. Die Bewertung basiert auf 3 Stimmen.
Data Orchestration in Deep Learning Accelerators
Diese Synthesevorlesung konzentriert sich auf Techniken zur effizienten Datenorchestrierung in DNN-Beschleunigern. Das Ende des Mooreschen Gesetzes in Verbindung mit dem zunehmenden Wachstum von Deep Learning und anderen KI-Anwendungen hat zur Entstehung von kundenspezifischen Deep Neural Network (DNN)-Beschleunigern für energieeffiziente Inferenzen auf Edge-Geräten geführt. Moderne DNNs haben Millionen von Hyperparametern und umfassen Milliarden von Berechnungen; dies erfordert eine umfangreiche Datenübertragung vom Speicher zu den On-Chip-Verarbeitungsmaschinen.
Es ist bekannt, dass die Kosten für die Datenbewegung heutzutage die Kosten für die eigentliche Berechnung übersteigen. Daher erfordern DNN-Beschleuniger eine sorgfältige Orchestrierung der Daten zwischen On-Chip-Rechen-, Netzwerk- und Speicherelementen, um die Anzahl der Zugriffe auf externen DRAM zu minimieren. Das Buch befasst sich mit DNN-Datenflüssen, Datenwiederverwendung, Pufferhierarchien, Netzwerken auf dem Chip und automatisierter Design-Space-Exploration.
Es schließt mit Herausforderungen der Datenorchestrierung mit komprimierten und spärlichen DNNs und zukünftigen Trends. Das Buch richtet sich an Studenten, Ingenieure und Forscher, die an der Entwicklung von leistungsstarken und energiesparenden Beschleunigern für DNN-Inferenzen interessiert sind.