Erste Schritte mit Google BERT: Erstellen und Trainieren von hochmodernen Modellen zur Verarbeitung natürlicher Sprache mit BERT

Bewertung:   (4,1 von 5)

Erste Schritte mit Google BERT: Erstellen und Trainieren von hochmodernen Modellen zur Verarbeitung natürlicher Sprache mit BERT (Sudharsan Ravichandiran)

Leserbewertungen

Zusammenfassung:

Das Buch dient als umfassende Einführung in BERT und die zugrundeliegende Transformer-Architektur und bietet eine ausgewogene Mischung aus theoretischen Erklärungen und praktischen Kodierungsbeispielen. Es ist besonders gut für diejenigen geeignet, die über ein grundlegendes Verständnis von NLP und Deep Learning verfügen, da es verschiedene BERT-Varianten und -Anwendungen detailliert beschreibt. Einige Leser haben das Buch jedoch für seine redundante Sprache, die oberflächliche Behandlung komplexer Themen und Probleme mit der Druckqualität kritisiert.

Vorteile:

Klare und prägnante Darstellung der BERT- und Transformer-Architektur
kombiniert Theorie mit praktischen Anwendungen und Programmierbeispielen
zugänglich für Leser ohne Doktortitel
praktische Übungen und GitHub-Ressourcen verbessern die Lernerfahrung
Diskussionen über verschiedene BERT-Varianten und Anwendungsfälle.

Nachteile:

Redundante Sprache und Wiederholungen in den Erklärungen
einige oberflächliche Abdeckung komplexer Themen
Probleme mit der Druckqualität
mehrere Leser berichteten über Fehler im Code
einige fanden den Inhalt zu grundlegend oder zu wenig tiefgehend für fortgeschrittene Praktiker.

(basierend auf 38 Leserbewertungen)

Originaltitel:

Getting Started with Google BERT: Build and train state-of-the-art natural language processing models using BERT

Inhalt des Buches:

Starten Sie Ihre NLP-Reise, indem Sie BERT und seine Varianten wie ALBERT, RoBERTa, DistilBERT, VideoBERT und mehr mit der Transformers-Bibliothek von Hugging Face erforschen

Hauptmerkmale

⬤ Erforschen Sie den Kodierer und Dekodierer des Transformer-Modells.

⬤ Machen Sie sich mit BERT sowie ALBERT, RoBERTa und DistilBERT vertraut.

⬤ Entdecken Sie, wie Sie BERT-Modelle für verschiedene NLP-Aufgaben vortrainieren und fein abstimmen können.

Buchbeschreibung

BERT (bidirektionale Encoder-Darstellungen von Transformern) hat die Welt der natürlichen Sprachverarbeitung (NLP) mit vielversprechenden Ergebnissen revolutioniert. Dieses Buch ist ein einführendes Handbuch, das Ihnen hilft, die BERT-Architektur von Google in den Griff zu bekommen. Mit einer detaillierten Erklärung der Transformer-Architektur hilft Ihnen dieses Buch zu verstehen, wie der Encoder und Decoder des Transformers funktionieren.

Sie werden die BERT-Architektur erkunden, indem Sie lernen, wie das BERT-Modell vortrainiert wird und wie Sie das vortrainierte BERT für nachgelagerte Aufgaben verwenden können, indem Sie es für NLP-Aufgaben wie Sentiment-Analyse und Textzusammenfassung mit der Hugging Face Transformers-Bibliothek feinabstimmen. Im weiteren Verlauf lernen Sie verschiedene BERT-Varianten wie ALBERT, RoBERTa und ELECTRA kennen und sehen sich SpanBERT an, das für NLP-Aufgaben wie die Beantwortung von Fragen verwendet wird. Sie werden auch einfachere und schnellere BERT-Varianten kennenlernen, die auf Wissensdestillation basieren, wie DistilBERT und TinyBERT. Das Buch führt Sie detailliert in MBERT, XLM und XLM-R ein und stellt Ihnen anschließend Satz-BERT vor, das zur Gewinnung von Satzrepräsentationen verwendet wird. Schließlich lernen Sie domänenspezifische BERT-Modelle wie BioBERT und ClinicalBERT kennen und entdecken eine interessante Variante namens VideoBERT.

Am Ende dieses BERT-Buches werden Sie mit der Verwendung von BERT und seinen Varianten für praktische NLP-Aufgaben gut vertraut sein.

Was Sie lernen werden

⬤ Verstehen Sie das Transformer-Modell von Grund auf.

⬤ Erfahren Sie, wie BERT funktioniert und trainieren Sie es anhand von Masked Language Model (MLM) und Next Sentence Prediction (NSP) Aufgaben.

⬤ Machen Sie sich mit BERT vertraut, indem Sie lernen, kontextbezogene Wort- und Satzeinbettungen zu erzeugen.

⬤ Feintuning von BERT für nachgelagerte Aufgaben.

⬤ Machen Sie sich mit den Modellen ALBERT, RoBERTa, ELECTRA und SpanBERT vertraut.

⬤ Die BERT-Modelle auf der Grundlage von Wissensdestillation in den Griff bekommen.

⬤ Verstehen Sie sprachenübergreifende Modelle wie XLM und XLM-R.

⬤ Erforschen Sie Sentence-BERT, VideoBERT und BART.

Für wen ist dieses Buch gedacht?

Dieses Buch richtet sich an NLP-Experten und Datenwissenschaftler, die NLP-Aufgaben vereinfachen möchten, um ein effizientes Sprachverständnis mit BERT zu ermöglichen. Ein grundlegendes Verständnis von NLP-Konzepten und Deep Learning ist erforderlich, um dieses Buch optimal nutzen zu können.

Weitere Daten des Buches:

ISBN:9781838821593
Autor:
Verlag:
Einband:Taschenbuch

Kauf:

Derzeit verfügbar, auf Lager.

Ich kaufe es!

Weitere Bücher des Autors:

Deep Reinforcement Learning mit Python - Zweite Auflage - Deep Reinforcement Learning with Python -...
Ein Handbuch mit vielen Beispielen für Anfänger,...
Deep Reinforcement Learning mit Python - Zweite Auflage - Deep Reinforcement Learning with Python - Second Edition
Erste Schritte mit Google BERT: Erstellen und Trainieren von hochmodernen Modellen zur Verarbeitung...
Starten Sie Ihre NLP-Reise, indem Sie BERT und...
Erste Schritte mit Google BERT: Erstellen und Trainieren von hochmodernen Modellen zur Verarbeitung natürlicher Sprache mit BERT - Getting Started with Google BERT: Build and train state-of-the-art natural language processing models using BERT
Praktische Algorithmen für Deep Learning mit Python - Hands-On Deep Learning Algorithms with...
Dieses Buch führt in grundlegende bis...
Praktische Algorithmen für Deep Learning mit Python - Hands-On Deep Learning Algorithms with Python

Die Werke des Autors wurden von folgenden Verlagen veröffentlicht:

© Book1 Group - Alle Rechte vorbehalten.
Der Inhalt dieser Seite darf weder teilweise noch vollständig ohne schriftliche Genehmigung des Eigentümers kopiert oder verwendet werden.
Letzte Änderung: 2024.11.13 22:11 (GMT)