Pretrain Vision und große Sprachmodelle in Python: End-to-End-Techniken für die Erstellung und Bereitstellung von Basismodellen auf AWS

Bewertung:   (4,1 von 5)

Pretrain Vision und große Sprachmodelle in Python: End-to-End-Techniken für die Erstellung und Bereitstellung von Basismodellen auf AWS (Emily Webber)

Leserbewertungen

Zusammenfassung:

Das Buch „Pretrain Vision and Large Language Models in Python“ von Emily Webber ist ein umfassendes Handbuch, das den Lesern hilft, grundlegende Modelle mit AWS und Amazon SageMaker zu verstehen und bereitzustellen. Es bietet praktische Ratschläge, detaillierte Diskussionen und Codebeispiele, die sich sowohl an Anfänger als auch an fortgeschrittene Benutzer richten. Allerdings gibt es Probleme wie Druckfehler in einigen Exemplaren, und einige Leser fanden die Tiefe des Buches nicht ausreichend oder hatten das Gefühl, dass es zu viel abdecken wollte, ohne ins Detail zu gehen.

Vorteile:

Umfassende Abdeckung von grundlegendem Modelltraining und -einsatz, praktische Beispiele und Code-Beispiele, gut strukturierte Anleitung, Expertenwissen des Autors, geeignet für Anfänger und Fortgeschrittene, zeitgemäße Ressource angesichts des wachsenden Interesses an großen Sprachmodellen.

Nachteile:

Einige Exemplare wiesen Druckfehler auf (fehlende Seiten, umgedrehte Seiten), erfordert möglicherweise Vorkenntnisse über Deep Learning, kann in bestimmten Bereichen zu wenig tiefgründig sein, einige Leser empfanden es als zu umfangreich und unübersichtlich, und es liest sich möglicherweise wie ein Verkaufsargument für SageMaker.

(basierend auf 15 Leserbewertungen)

Originaltitel:

Pretrain Vision and Large Language Models in Python: End-to-end techniques for building and deploying foundation models on AWS

Inhalt des Buches:

Beherrschen Sie die Kunst des Trainings von Vision und großen Sprachmodellen mit konzeptionellen Grundlagen und Anleitungen von Branchenexperten. Erfahren Sie mehr über AWS-Services und Entwurfsmuster, mit relevanten Codierungsbeispielen

Hauptmerkmale:

⬤ Lernen Sie, wie Sie grundlegende Modelle mit optimierten End-to-End-Pipelines entwickeln, trainieren, abstimmen und anwenden.

⬤ Erforschen Sie verteiltes Training in großem Maßstab für Modelle und Datensätze mit AWS- und SageMaker-Beispielen.

⬤ Evaluieren, implementieren und operationalisieren Sie Ihre benutzerdefinierten Modelle mit Bias-Erkennung und Pipeline-Überwachung.

Buchbeschreibung:

Foundation-Modelle haben das maschinelle Lernen für immer verändert. Von BERT bis ChatGPT, von CLIP bis Stable Diffusion - wenn Milliarden von Parametern mit großen Datensätzen und Hunderten bis Tausenden von GPUs kombiniert werden, ist das Ergebnis rekordverdächtig. Die Empfehlungen, Ratschläge und Codebeispiele in diesem Buch helfen Ihnen beim Pre-Training und der Feinabstimmung Ihrer eigenen Basismodelle auf AWS und Amazon SageMaker, während Sie sie auf Hunderte von Anwendungsfällen in Ihrem Unternehmen anwenden.

Mit den Ratschlägen der erfahrenen AWS- und Machine Learning-Expertin Emily Webber erfahren Sie in diesem Buch alles, was Sie von der Projektidee bis zur Vorbereitung des Datensatzes, dem Training, der Bewertung und der Bereitstellung großer Sprach-, Bildverarbeitungs- und multimodaler Modelle benötigen. Anhand schrittweiser Erklärungen wesentlicher Konzepte und praktischer Beispiele werden Sie von der Beherrschung des Konzepts des Pretrainings über die Vorbereitung Ihres Datensatzes und Modells, die Konfiguration Ihrer Umgebung, das Training, die Feinabstimmung, die Evaluierung, den Einsatz und die Optimierung Ihrer Basismodelle geführt.

Sie lernen, wie Sie die Skalierungsgesetze anwenden, um Ihr Modell und Ihren Datensatz auf mehrere GPUs zu verteilen, Verzerrungen zu beseitigen, einen hohen Durchsatz zu erzielen und Einsatzpipelines zu erstellen.

Am Ende dieses Buches werden Sie gut gerüstet sein, um Ihr eigenes Projekt zum Pre-Training und zur Feinabstimmung der grundlegenden Modelle der Zukunft in Angriff zu nehmen.

Was Sie lernen werden:

⬤ Finden Sie die richtigen Anwendungsfälle und Datensätze für Pretraining und Feinabstimmung.

⬤ Bereiten Sie sich auf groß angelegte Schulungen mit benutzerdefinierten Beschleunigern und GPUs vor.

⬤ Konfigurieren Sie Umgebungen auf AWS und SageMaker, um die Leistung zu maximieren.

⬤ Wählen Sie Hyperparameter auf der Grundlage Ihres Modells und Ihrer Beschränkungen.

⬤ Verteilen Sie Ihr Modell und Ihren Datensatz mit vielen Arten von Parallelität.

⬤ Vermeiden Sie Fallstricke mit Job-Neustarts, intermittierenden Gesundheitsprüfungen und mehr.

⬤ Evaluieren Sie Ihr Modell mit quantitativen und qualitativen Erkenntnissen.

⬤ Verteilen Sie Ihre Modelle mit Laufzeitverbesserungen und Überwachungspipelines.

Für wen dieses Buch gedacht ist:

Wenn Sie ein Forscher oder Enthusiast im Bereich des maschinellen Lernens sind, der ein grundlegendes Modellierungsprojekt starten möchte, ist dieses Buch genau das Richtige für Sie. Angewandte Wissenschaftler, Datenwissenschaftler, Ingenieure für maschinelles Lernen, Lösungsarchitekten, Produktmanager und Studenten werden alle von diesem Buch profitieren. Fortgeschrittene Python-Kenntnisse sind ein Muss, ebenso wie einführende Konzepte des Cloud-Computing. Ein starkes Verständnis der Grundlagen des Deep Learning ist erforderlich, während fortgeschrittene Themen erklärt werden. Der Inhalt deckt fortgeschrittene Techniken des maschinellen Lernens und des Cloud Computing ab und erklärt sie in einer umsetzbaren, leicht verständlichen Weise.

Weitere Daten des Buches:

ISBN:9781804618257
Autor:
Verlag:
Sprache:Englisch
Einband:Taschenbuch

Kauf:

Derzeit verfügbar, auf Lager.

Ich kaufe es!

Weitere Bücher des Autors:

Erfolgreiche Praxisgemeinschaften aufbauen - Building Successful Communities of Practice
Die Verbindung zu anderen Menschen, das Gefühl der Zugehörigkeit...
Erfolgreiche Praxisgemeinschaften aufbauen - Building Successful Communities of Practice
Pretrain Vision und große Sprachmodelle in Python: End-to-End-Techniken für die Erstellung und...
Beherrschen Sie die Kunst des Trainings von Vision...
Pretrain Vision und große Sprachmodelle in Python: End-to-End-Techniken für die Erstellung und Bereitstellung von Basismodellen auf AWS - Pretrain Vision and Large Language Models in Python: End-to-end techniques for building and deploying foundation models on AWS

Die Werke des Autors wurden von folgenden Verlagen veröffentlicht:

© Book1 Group - Alle Rechte vorbehalten.
Der Inhalt dieser Seite darf weder teilweise noch vollständig ohne schriftliche Genehmigung des Eigentümers kopiert oder verwendet werden.
Letzte Änderung: 2024.11.13 22:11 (GMT)