Bewertung:

Derzeit gibt es keine Leserbewertungen. Die Bewertung basiert auf 51 Stimmen.
Transformers for Natural Language Processing and Computer Vision - Third Edition: Explore Generative AI and Large Language Models with Hugging Face, C
Der maßgebliche Leitfaden zu LLMs, von Architekturen, Vortraining und Feinabstimmung bis zu Retrieval Augmented Generation (RAG), multimodaler generativer KI, Risiken und Implementierungen mit ChatGPT Plus mit GPT-4, Hugging Face und Vertex AI
Hauptmerkmale:
- Vergleichen und kontrastieren Sie 20+ Modelle (einschließlich GPT-4, BERT und Llama 2) und mehrere Plattformen und Bibliotheken, um die richtige Lösung für Ihr Projekt zu finden
- Wenden Sie RAG mit LLMs unter Verwendung benutzerdefinierter Texte und Einbettungen an
- Entschärfung von LLM-Risiken, wie z.B. Halluzinationen, mit Hilfe von Moderationsmodellen und Wissensbasen
- Der Kauf des gedruckten oder des Kindle-Buches beinhaltet ein kostenloses eBook im PDF-Format
Buchbeschreibung:
Transformers for Natural Language Processing and Computer Vision, Third Edition, erforscht Large Language Model (LLM) Architekturen, Anwendungen und verschiedene Plattformen (Hugging Face, OpenAI und Google Vertex AI), die für Natural Language Processing und Computer Vision verwendet werden. Das Buch führt Sie durch verschiedene Transformer-Architekturen bis hin zu den neuesten Foundation Models und generativer KI. Sie werden LLMs vortrainieren und feinabstimmen und verschiedene Anwendungsfälle durcharbeiten, von der Zusammenfassung bis zur Implementierung von Frage-Antwort-Systemen mit einbettungsbasierten Suchtechniken. Sie werden auch die Risiken von LLMs kennenlernen, von Halluzinationen und Memorisierung bis hin zum Datenschutz, und erfahren, wie man solche Risiken durch den Einsatz von Moderationsmodellen mit Regel- und Wissensdatenbanken abschwächt. Sie werden Retrieval Augmented Generation mit LLMs implementieren, um die Genauigkeit Ihrer Modelle zu verbessern und eine bessere Kontrolle über LLM-Ausgaben zu erhalten. Sie lernen generative Bildtransformatoren und multimodale Modellarchitekturen kennen und erstellen Anwendungen wie Bild- und Video-zu-Text-Klassifikatoren. Kombinieren Sie verschiedene Modelle und Plattformen und lernen Sie mehr über die Replikation von KI-Agenten. Dieses Buch vermittelt Ihnen ein Verständnis für Transformer-Architekturen, Pretraining, Feinabstimmung, LLM-Anwendungsfälle und Best Practices.
Was Sie lernen werden:
- Aufschlüsselung und Verständnis der Architekturen von Original Transformer, BERT, GPT-Modellen, T5, PaLM, ViT, CLIP und DALL-E
- Feinabstimmung von BERT-, GPT- und PaLM 2-Modellen
- Lernen Sie die verschiedenen Tokenizer und die besten Methoden zur Vorverarbeitung von Sprachdaten kennen
- Pretrainieren eines RoBERTa-Modells von Grund auf
- Implementierung von Retrieval-Augmented Generation und Regelbasen zur Abschwächung von Halluzinationen
- Visualisierung der Aktivität von Transformer-Modellen für tiefere Einblicke mit BertViz, LIME und SHAP
- Vertiefung der Sehtransformatoren mit CLIP, DALL-E 2, DALL-E 3 und GPT-4V
Für wen dieses Buch geeignet ist:
Dieses Buch ist ideal für NLP- und KI-Ingenieure, Softwareentwickler, Datenwissenschaftler, Ingenieure für maschinelles Lernen und technische Führungskräfte, die ihre LLM- und generativen KI-Kenntnisse erweitern oder die neuesten Trends auf diesem Gebiet erkunden möchten. Kenntnisse von Python und Konzepten des maschinellen Lernens sind erforderlich, um die Anwendungsfälle und Codebeispiele vollständig zu verstehen. Mit Beispielen zu LLM-Benutzeroberflächen, Prompt-Engineering und Modellbildung ohne Code ist dieses Buch jedoch für jeden geeignet, der sich für die Revolution der KI interessiert.