Bewertung:

Derzeit gibt es keine Leserbewertungen. Die Bewertung basiert auf 3 Stimmen.
Embeddings in Natural Language Processing: Theory and Advances in Vector Representations of Meaning
Einbettungen sind zweifellos einer der einflussreichsten Forschungsbereiche in der natürlichen Sprachverarbeitung (NLP). Die Kodierung von Informationen in eine niedrigdimensionale Vektordarstellung, die leicht in moderne maschinelle Lernmodelle integriert werden kann, hat eine zentrale Rolle bei der Entwicklung von NLP gespielt. Ursprünglich konzentrierten sich die Einbettungstechniken auf Wörter, doch schon bald verlagerte sich die Aufmerksamkeit auf andere Formen: von Graphenstrukturen wie Wissensdatenbanken bis hin zu anderen Arten von Textinhalten wie Sätzen und Dokumenten.
Dieses Buch bietet eine umfassende Synthese der wichtigsten Einbettungstechniken im NLP im weitesten Sinne. Das Buch beginnt mit der Erläuterung konventioneller Wortvektorraummodelle und Worteinbettungen (z. B. Word2Vec und GloVe) und geht dann zu anderen Arten von Einbettungen über, wie z. B. Wortsinn-, Satz- und Dokument- und Grapheneinbettungen. Das Buch gibt auch einen Überblick über die jüngsten Entwicklungen im Bereich kontextualisierter Repräsentationen (z. B. ELMo und BERT) und erläutert deren Potenzial für NLP.
Im gesamten Buch findet der Leser sowohl wesentliche Informationen, um ein bestimmtes Thema von Grund auf zu verstehen, als auch einen breiten Überblick über die erfolgreichsten in der Literatur entwickelten Techniken.