Deep Learning at Scale: Am Schnittpunkt von Hardware, Software und Daten

Bewertung:   (3,9 von 5)

Deep Learning at Scale: Am Schnittpunkt von Hardware, Software und Daten (Suneeta Mall)

Leserbewertungen

Zusammenfassung:

Das Buch ist eine Ressource für skalierbares Deep Learning. Es wird für seine praktischen Übungen und klaren Erklärungen gelobt, aber für die oberflächliche Behandlung fortgeschrittener Themen und den mangelnden Fokus auf Inferenzen bei der Modellerstellung kritisiert.

Vorteile:

Das Buch wird für seinen fantastischen Einfallsreichtum, seine Eleganz bei der Entmystifizierung komplexer Konzepte und seine effektiven praktischen Übungen, die reale Fähigkeiten aufbauen, empfohlen.

Nachteile:

Das Buch ist in den Diskussionen zu allgemein, es fehlt an Tiefe für Fachleute, es konzentriert sich stark auf die Ausbildung und nicht auf die Inferenz und bietet keine Einblicke in den Aufbau von LLM/DL-Diensten, die die Anforderungen an die Zuverlässigkeit erfüllen.

(basierend auf 2 Leserbewertungen)

Originaltitel:

Deep Learning at Scale: At the Intersection of Hardware, Software, and Data

Inhalt des Buches:

Ein Deep-Learning-Projekt im großen Maßstab in die Produktion zu bringen, ist eine ziemliche Herausforderung. Um Ihr Projekt erfolgreich zu skalieren, ist ein grundlegendes Verständnis von Full-Stack Deep Learning erforderlich, einschließlich des Wissens, das an der Schnittstelle von Hardware, Software, Daten und Algorithmen liegt.

Dieses Buch veranschaulicht komplexe Konzepte des Full-Stack Deep Learning und vertieft sie durch praktische Übungen, um Sie mit Werkzeugen und Techniken für die Skalierung Ihres Projekts auszustatten. Ein Skalierungsprojekt ist nur dann von Vorteil, wenn es effektiv und effizient ist. Zu diesem Zweck erklärt dieser Leitfaden die komplexen Konzepte und Techniken, die Ihnen helfen werden, effektiv und effizient zu skalieren.

Sie erhalten ein umfassendes Verständnis von:

⬤ Wie Daten durch das Deep-Learning-Netzwerk fließen und welche Rolle die Berechnungsgraphen beim Aufbau Ihres Modells spielen.

⬤ Wie beschleunigte Berechnungen Ihr Training beschleunigen und wie Sie die Ihnen zur Verfügung stehenden Ressourcen am besten nutzen können.

⬤ Wie Sie Ihr Modell mit verteilten Trainingsparadigmen trainieren, d. h. Daten-, Modell- und Pipeline-Parallelität.

⬤ Wie Sie das PyTorch-Ökosystem in Verbindung mit den NVIDIA-Bibliotheken und Triton nutzen, um Ihr Modelltraining zu skalieren.

⬤ Fehlersuche, Überwachung und Untersuchung von unerwünschten Engpässen, die Ihre Modellschulung verlangsamen.

⬤ Wie Sie den Trainingszyklus beschleunigen und Ihre Feedbackschleife rationalisieren, um die Modellentwicklung zu iterieren.

⬤ Eine Reihe von Datentricks und -techniken und deren Anwendung zur Skalierung Ihres Trainingsmodells.

⬤ Wie Sie die richtigen Tools und Techniken für Ihr Deep-Learning-Projekt auswählen.

⬤ Optionen für die Verwaltung der Recheninfrastruktur bei der Skalierung.

Weitere Daten des Buches:

ISBN:9781098145286
Autor:
Verlag:
Sprache:Englisch
Einband:Taschenbuch
Erscheinungsjahr:2024
Seitenzahl:400

Kauf:

Derzeit verfügbar, auf Lager.

Ich kaufe es!

Weitere Bücher des Autors:

Deep Learning at Scale: Am Schnittpunkt von Hardware, Software und Daten - Deep Learning at Scale:...
Ein Deep-Learning-Projekt im großen Maßstab in die...
Deep Learning at Scale: Am Schnittpunkt von Hardware, Software und Daten - Deep Learning at Scale: At the Intersection of Hardware, Software, and Data

Die Werke des Autors wurden von folgenden Verlagen veröffentlicht:

© Book1 Group - Alle Rechte vorbehalten.
Der Inhalt dieser Seite darf weder teilweise noch vollständig ohne schriftliche Genehmigung des Eigentümers kopiert oder verwendet werden.
Letzte Änderung: 2024.11.13 22:11 (GMT)