Bewertung:

Das Buch stellt sich selbst als eine einführende Ressource für das Verständnis von Deep Learning dar, wobei der Schwerpunkt darauf liegt, komplexe Konzepte für Anfänger zugänglich zu machen. Es hat jedoch gemischte Kritiken in Bezug auf seine Klarheit, Fehler in Programmierbeispielen und die allgemeine Organisation erhalten.
Vorteile:⬤ Klare und verständliche Erklärungen von Deep-Learning-Konzepten.
⬤ Praktischer Ansatz für die Implementierung neuronaler Netze.
⬤ Zugänglich für Anfänger ohne große mathematische Vorkenntnisse.
⬤ Gutes Grundlagenwissen über Deep Learning in einem allmählichen Aufbau-Stil.
⬤ Fesselnde Erzählungen und Analogien, die helfen, komplexe Ideen zu entmystifizieren.
⬤ Erhebliche Kodierungsfehler, die Anfänger verwirren könnten.
⬤ Einige Kapitel werden als verwirrend oder schlecht strukturiert empfunden.
⬤ Enthält Tippfehler und Beispiele, die unrealistisch oder erfunden erscheinen, was zu einer möglichen Unvereinbarkeit mit praktischen Anwendungen führt.
⬤ Bestimmte kritische Abschnitte werden nicht ausführlich genug behandelt, so dass die Leser nach zusätzlichen Quellen zur Klärung suchen müssen.
(basierend auf 35 Leserbewertungen)
Grokking Deep Learning
Zusammenfassung
In seinem fesselnden Stil zeigt Ihnen der erfahrene Deep-Learning-Experte Andrew Trask die Wissenschaft unter der Haube, so dass Sie jedes Detail des Trainings neuronaler Netze selbst ergründen können.
Der Kauf des gedruckten Buches beinhaltet ein kostenloses eBook im PDF-, Kindle- und ePub-Format von Manning Publications.
Über die Technologie
Beim Deep Learning, einem Teilgebiet der künstlichen Intelligenz, lernen Computer mithilfe von neuronalen Netzen, einer Technologie, die vom menschlichen Gehirn inspiriert ist, zu lernen. Online-Textübersetzung, selbstfahrende Autos, personalisierte Produktempfehlungen und virtuelle Sprachassistenten sind nur einige der aufregenden modernen Fortschritte, die dank Deep Learning möglich sind.
Über das Buch
In seinem fesselnden Stil zeigt Ihnen der erfahrene Deep-Learning-Experte Andrew Trask die Wissenschaft unter der Haube, damit Sie jedes Detail des Trainings neuronaler Netze selbst verstehen. Mit Hilfe von Python und der mathematikunterstützenden Bibliothek NumPy trainieren Sie Ihre eigenen neuronalen Netze, um Bilder zu sehen und zu verstehen, Text in verschiedene Sprachen zu übersetzen und sogar wie Shakespeare zu schreiben.
Was ist drin?
⬤ Die Wissenschaft hinter Deep Learning.
⬤ Aufbau und Training Ihrer eigenen neuronalen Netzwerke.
⬤ Konzepte zum Schutz der Privatsphäre, einschließlich föderiertes Lernen.
⬤ Tipps für die weitere Beschäftigung mit Deep Learning.
Über den Leser
Für Leser mit Mathematikkenntnissen auf Highschool-Niveau und mittleren Programmierkenntnissen.
Über den Autor
Andrew Trask ist Doktorand an der Universität Oxford und Forscher bei DeepMind. Zuvor war Andrew Trask Forscher und Produktmanager für Analysen bei Digital Reasoning, wo er das weltweit größte künstliche neuronale Netzwerk trainierte und die Analyse-Roadmap für die Synthesys-Plattform für kognitives Computing mitgestaltete.
Inhaltsverzeichnis
⬤ Einführung in Deep Learning: Warum Sie es lernen sollten.
⬤ Grundlegende Konzepte: Wie lernen Maschinen?
⬤ Einführung in die neuronale Vorhersage: Vorwärtspropagation.
⬤ Einführung in das neuronale Lernen: Gradientenabstieg.
⬤ Lernen mehrerer Gewichte auf einmal: Verallgemeinerung des Gradientenabstiegs.
⬤ Erstellung Ihres ersten tiefen neuronalen Netzes: Einführung in die Backpropagation.
⬤ Wie man sich neuronale Netze vorstellt: im Kopf und auf dem Papier.
⬤ Signal lernen und Rauschen ignorieren: Einführung in Regularisierung und Stapelverarbeitung.
⬤ Modellierung von Wahrscheinlichkeiten und Nichtlinearitäten: Aktivierungsfunktionen.
⬤ Neuronales Lernen über Kanten und Ecken: Einführung in Faltungsnetzwerke.
⬤ Neuronale Netze, die Sprache verstehen: König - Mann + Frau ==?
⬤ Neuronale Netze, die wie Shakespeare schreiben: rekurrente Schichten für Daten mit variabler Länge.
⬤ Einführung in die automatische Optimierung: Bauen wir ein Deep Learning Framework.
⬤ Lernen, wie Shakespeare zu schreiben: Langes Kurzzeitgedächtnis.
⬤ Tiefes Lernen auf ungesehenen Daten: Einführung in das föderierte Lernen.
⬤ Wie geht es weiter: ein kurzer Leitfaden.