Bewertung:

Das Buch bietet eine umfassende Einführung in das maschinelle Lernen unter Verwendung von Python mit einem algorithmischen Ansatz, obwohl es unter zahlreichen mathematischen Fehlern und verwirrenden Erklärungen leidet. Es deckt zwar eine breite Palette von Algorithmen ab und ist besonders für Personen mit weniger ausgeprägtem mathematischen Hintergrund zugänglich, kann aber fortgeschrittene Benutzer oder diejenigen, die eine strenge Behandlung suchen, frustrieren.
Vorteile:⬤ Umfassende Abdeckung verschiedener Algorithmen des maschinellen Lernens.
⬤ Algorithmischer Schwerpunkt und nicht nur anwendungsorientiert.
⬤ Zugänglich für Personen mit begrenzten mathematischen Kenntnissen.
⬤ Enthält Python-Code-Beispiele, die für das praktische Verständnis hilfreich sind.
⬤ In einem leicht verständlichen Stil geschrieben.
⬤ Gut für Einführungskurse.
⬤ Voller Fehler, sowohl typografischer als auch mathematischer Art.
⬤ Einige Erklärungen sind verwirrend oder unklar.
⬤ Bestimmte Abschnitte bieten nicht genügend Tiefe oder Details.
⬤ Setzt eine gewisse Vertrautheit mit Python voraus und enthält keine ausführlichen Tutorials.
⬤ Eignet sich eher als ergänzende Ressource denn als eigenständiger Text.
(basierend auf 35 Leserbewertungen)
Machine Learning: An Algorithmic Perspective, Second Edition
Ein bewährter, praxisorientierter Ansatz für Studenten ohne solide statistische Grundlagen
Seit der Veröffentlichung der ersten Auflage des Bestsellers hat es mehrere bedeutende Entwicklungen auf dem Gebiet des maschinellen Lernens gegeben, darunter die zunehmende Arbeit an der statistischen Interpretation von Algorithmen des maschinellen Lernens. Leider ist es für Informatikstudenten ohne fundierte statistische Kenntnisse oft schwierig, in diesem Bereich Fuß zu fassen.
Um diesen Mangel zu beheben, hilft Machine Learning: An Algorithmic Perspective, Second Edition den Studierenden, die Algorithmen des maschinellen Lernens zu verstehen. Es bringt sie auf den Weg zur Beherrschung der relevanten Mathematik und Statistik sowie der notwendigen Programmierung und Experimente.
Neu in der zweiten Auflage
⬤ Zwei neue Kapitel über Deep Belief Networks und Gaußsche Prozesse.
⬤ Neustrukturierung der Kapitel, um einen natürlicheren Fluss des Inhalts zu erreichen.
⬤ Überarbeitung des Materials zur Support-Vektor-Maschine, einschließlich einer einfachen Implementierung für Experimente.
⬤ Neues Material über Random Forests, das Perceptron-Konvergenz-Theorem, Genauigkeitsmethoden und konjugierte Gradientenoptimierung für das mehrschichtige Perceptron.
⬤ Zusätzliche Diskussionen über Kalman- und Partikelfilter.
⬤ Verbesserter Code, einschließlich besserer Verwendung der Namenskonventionen in Python.
Der Text eignet sich sowohl für einen einsemestrigen Einführungskurs als auch für fortgeschrittene Kurse und ermutigt die Studenten, mit dem Code zu üben. Jedes Kapitel enthält detaillierte Beispiele sowie weiterführende Literatur und Probleme. Der gesamte Code, der zur Erstellung der Beispiele verwendet wurde, ist auf der Website des Autors verfügbar.