Bewertung:

Das Buch ist eine umfassende akademische Ressource für das Verständnis der Grundlagen des Deep Learning, mit Schwerpunkt auf Theorie und Algorithmen, mit klaren Erklärungen und einer umfassenden Abdeckung der jüngsten Entwicklungen auf diesem Gebiet. Es fehlt jedoch an praktischen Programmierbeispielen und einer Diskussion über Einbettungen.
Vorteile:Gut gegliedert, mit klaren Erklärungen, deckt die grundlegenden Konzepte des Deep Learning und die relevante Mathematik ab, bietet umfangreiche Aktualisierungen einschließlich großer Sprachmodelle und moderner Architekturen, enthält viele Übungen zur Festigung der Konzepte.
Nachteile:Enthält keine praktischen Programmierbeispiele oder Lösungen für Übungen, keine Diskussion über Einbettungen und erfordert einen starken Hintergrund in Kalkül und linearer Algebra.
(basierend auf 7 Leserbewertungen)
Neural Networks and Deep Learning: A Textbook
Dieses Lehrbuch deckt sowohl klassische als auch moderne Modelle des Deep Learning ab und enthält in allen Kapiteln Beispiele und Übungen. Deep-Learning-Methoden für verschiedene Datendomänen wie Text, Bilder und Graphen werden detailliert vorgestellt. Die Kapitel dieses Buches umfassen drei Kategorien:
Die Grundlagen neuronaler Netze: Der Backpropagation-Algorithmus wird in Kapitel 2 behandelt.
Viele traditionelle Modelle des maschinellen Lernens können als Spezialfälle von neuronalen Netzen verstanden werden. In Kapitel 3 werden die Verbindungen zwischen traditionellem maschinellem Lernen und neuronalen Netzen untersucht. Unterstützungsvektormaschinen, lineare/logistische Regression, Singulärwertzerlegung, Matrixfaktorisierung und Empfehlungssysteme werden als Spezialfälle von neuronalen Netzen dargestellt.
In den Kapiteln 4 und 5 werden Training und Regularisierung ausführlich diskutiert. In den Kapiteln 6 und 7 werden Netze mit Radial-Basis-Funktion (RBF) und eingeschränkte Boltzmann-Maschinen vorgestellt.
Fortgeschrittene Themen in neuronalen Netzen: In den Kapiteln 8, 9 und 10 werden rekurrente neuronale Netze, neuronale Faltungsnetze und neuronale Graphennetze behandelt. Mehrere fortgeschrittene Themen wie Deep Reinforcement Learning, Aufmerksamkeitsmechanismen, Transformator-Netzwerke, selbstorganisierende Kohonen-Karten und generative adversarische Netzwerke werden in den Kapiteln 11 und 12 vorgestellt.
Das Lehrbuch richtet sich an Doktoranden und Studenten der höheren Semesterniveaus. Forscher und Praktiker, die in diesem Bereich tätig sind, werden es sich ebenfalls zulegen wollen.
Wo immer es möglich ist, wird eine anwendungsorientierte Sichtweise hervorgehoben, um ein Verständnis für den praktischen Einsatz der einzelnen Klassen von Techniken zu vermitteln.
Die zweite Auflage wurde grundlegend umstrukturiert und um separate Kapitel über Backpropagation und graphische neuronale Netze erweitert. Viele Kapitel wurden gegenüber der ersten Auflage erheblich überarbeitet.
Ein größerer Schwerpunkt liegt auf modernen Deep-Learning-Ideen wie Aufmerksamkeitsmechanismen, Transformatoren und vortrainierten Sprachmodellen.