Informationstheorie, Inferenz und Lernalgorithmen

Bewertung:   (4,6 von 5)

Informationstheorie, Inferenz und Lernalgorithmen (MacKay David J. C.)

Leserbewertungen

Zusammenfassung:

Das Buch ist ein angesehener Text über Informationstheorie und maschinelles Lernen, der verschiedene Themen wie Bayes'sche Inferenz und statistische Zusammenhänge integriert. Obwohl es aufschlussreiche Inhalte bietet, fehlt es einigen Lesern an praktischen Anwendungen und detaillierten Erklärungen, so dass sie zum besseren Verständnis möglicherweise auf externe Ressourcen zurückgreifen müssen.

Vorteile:

Bietet eine solide Einführung in die Informationstheorie mit Tiefgang.
Bietet einzigartige multidisziplinäre Verbindungen und Perspektiven.
Fesselnder Schreibstil und schöne Illustrationen.
Gut geeignet für das Selbststudium mit Übungen.
Regt zum Nachdenken an und prägt das Denken des Lesers.
Bietet Einblicke durch einen integrierten Ansatz für Informationstheorie und Statistik.

Nachteile:

Es fehlt an praktischen Informationen für die Lösung von Problemen in der realen Welt.
Einige Konzepte werden nicht gut erklärt, so dass der Leser auf externe Quellen zurückgreifen muss.
Die Organisation des Materials kann verwirrend sein, mit sich wiederholenden Inhalten.
Der Schwerpunkt liegt auf mathematischen Beweisen, die für Ingenieure unpraktisch sein können.
Einige Probleme mit der Druckqualität wurden gemeldet.

(basierend auf 58 Leserbewertungen)

Originaltitel:

Information Theory, Inference and Learning Algorithms

Inhalt des Buches:

Informationstheorie und Inferenz, die oft getrennt gelehrt werden, sind hier in einem unterhaltsamen Lehrbuch vereint. Diese Themen stehen im Mittelpunkt vieler spannender Bereiche der modernen Wissenschaft und Technik - Kommunikation, Signalverarbeitung, Data Mining, maschinelles Lernen, Mustererkennung, Computer-Neurowissenschaften, Bioinformatik und Kryptographie.

Dieses Lehrbuch führt in die Theorie ein und verbindet sie mit Anwendungen. Die Informationstheorie wird zusammen mit praktischen Kommunikationssystemen gelehrt, wie z. B.

arithmetische Kodierung zur Datenkompression und Sparse-Graph-Codes zur Fehlerkorrektur. Ein Werkzeugkasten von Inferenztechniken, einschließlich Message-Passing-Algorithmen, Monte-Carlo-Methoden und Variationsapproximationen, wird zusammen mit Anwendungen dieser Werkzeuge auf Clustering, Faltungscodes, unabhängige Komponentenanalyse und neuronale Netze entwickelt.

Der letzte Teil des Buches beschreibt den Stand der Technik bei den Fehlerkorrekturcodes, einschließlich Low-Density-Parity-Check-Codes, Turbo-Codes und Digital-Fountain-Codes - die Standards des 21. David MacKays bahnbrechendes Buch ist reich bebildert, enthält zahlreiche Beispiele und mehr als 400 Übungen, einige davon mit detaillierten Lösungen, und eignet sich ideal für das Selbststudium sowie für Grund- und Aufbaustudiengänge.

Zwischenspiele über Kreuzworträtsel, Evolution und Sex sorgen für Unterhaltung. Alles in allem ist dies ein Lehrbuch über Information, Kommunikation und Codierung für eine neue Generation von Studenten und ein unvergleichlicher Einstieg in diese Themen für Fachleute in so unterschiedlichen Bereichen wie Computerbiologie, Finanztechnik und maschinelles Lernen.

Weitere Daten des Buches:

ISBN:9780521642989
Autor:
Verlag:
Einband:Hardcover
Erscheinungsjahr:2003
Seitenzahl:640

Kauf:

Derzeit verfügbar, auf Lager.

Ich kaufe es!

Weitere Bücher des Autors:

Informationstheorie, Inferenz und Lernalgorithmen - Information Theory, Inference and Learning...
Informationstheorie und Inferenz, die oft getrennt...
Informationstheorie, Inferenz und Lernalgorithmen - Information Theory, Inference and Learning Algorithms

Die Werke des Autors wurden von folgenden Verlagen veröffentlicht: