Bewertung:

Das Buch bietet eine klare und gut lesbare Einführung in das Reinforcement Learning und die dynamische Programmierung und eignet sich daher zum Selbststudium. Es erklärt Konzepte effektiv und bietet gute Beispiele. Einige Leser haben jedoch Probleme mit der Kindle-Version und eine Vorliebe für eine andere Notation als in anderen Texten festgestellt.
Vorteile:⬤ Sehr gut lesbare und klare Erklärungen
⬤ bietet einen guten Überblick über Reinforcement Learning und dynamische Programmierung
⬤ enthält hilfreiche Beispiele und Implementierungstipps
⬤ gut geeignet für Anfänger.
Probleme mit der Formatierung der Kindle-Version; die Notation weicht von Bertsekas' Werken ab, was einige Leser verwirren könnte.
(basierend auf 7 Leserbewertungen)
Approximate Dynamic Programmin
(Lob für die erste Ausgabe)
"Endlich ein Buch, das sich der dynamischen Programmierung widmet und in der Sprache des Operations Research (OR) geschrieben ist. Dieses schöne Buch füllt eine Lücke in den Bibliotheken von OR-Spezialisten und Praktikern.".
-- Computing Reviews
Diese neue Ausgabe legt den Schwerpunkt auf die Modellierung und Berechnung komplexer Klassen von Problemen der approximativen dynamischen Programmierung
Das Verständnis der approximativen dynamischen Programmierung (ADP) ist von entscheidender Bedeutung für die Entwicklung praktischer und qualitativ hochwertiger Lösungen für komplexe industrielle Probleme, insbesondere dann, wenn diese Probleme das Treffen von Entscheidungen in Gegenwart von Ungewissheit beinhalten. Approximate Dynamic Programming, Second Edition integriert auf einzigartige Weise vier verschiedene Disziplinen - Markov-Entscheidungsprozesse, mathematische Programmierung, Simulation und Statistik -, um zu demonstrieren, wie man eine breite Palette von realen Problemen mit Hilfe von ADP erfolgreich angehen, modellieren und lösen kann.
Das Buch schlägt weiterhin die Brücke zwischen Informatik, Simulation und Operations Research und übernimmt nun die Notation und das Vokabular des Reinforcement Learning sowie der stochastischen Suche und Simulationsoptimierung. Der Autor skizziert die wesentlichen Algorithmen, die als Ausgangspunkt für den Entwurf von praktischen Lösungen für reale Probleme dienen. Die drei Flüche der Dimensionalität, die sich auf komplexe Probleme auswirken, werden vorgestellt, und es wird ausführlich auf die Herausforderungen bei der Implementierung eingegangen. Die zweite Auflage bietet außerdem:
⬤ Ein neues Kapitel, in dem vier grundlegende Klassen von Strategien für die Arbeit mit verschiedenen stochastischen Optimierungsproblemen beschrieben werden: kurzsichtige Strategien, vorausschauende Strategien, Näherungen von Strategienfunktionen und Strategien, die auf Näherungen von Wertfunktionen basieren.
⬤ Ein neues Kapitel über Policy-Suche, das stochastische Such- und Simulationsoptimierungskonzepte zusammenführt und eine neue Klasse optimaler Lernstrategien vorstellt.
⬤ Aktualisierte Behandlung des Explorations-Ausbeutungs-Problems in ADP, jetzt einschließlich einer kürzlich entwickelten Methode für aktives Lernen bei Vorhandensein eines physikalischen Zustands, unter Verwendung des Konzepts des Wissensgradienten.
⬤ Eine neue Reihe von Kapiteln, in denen statistische Methoden zur Annäherung von Wertfunktionen, zur Schätzung des Wertes einer festgelegten Strategie und zur Annäherung von Wertfunktionen bei der Suche nach optimalen Strategien beschrieben werden.
Der Schwerpunkt der Darstellung von ADP liegt auf Modellen und Algorithmen, wobei der Schwerpunkt auf verwandten Anwendungen und Berechnungen liegt, während auch die theoretische Seite des Themas erörtert wird, die Beweise für Konvergenz und Konvergenzrate untersucht. Eine zugehörige Website bietet eine fortlaufende Diskussion über die sich entwickelnden Bereiche der dynamischen Approximationsprogrammierung und des Verstärkungslernens, zusammen mit zusätzlicher Lektüre, Software und Datensätzen.
Approximate Dynamic Programming, Second Edition, erfordert nur ein grundlegendes Verständnis von Statistik und Wahrscheinlichkeit und ist ein ausgezeichnetes Buch für Kurse in Wirtschaftsingenieurwesen und Operations Research auf dem Niveau von Hochschulabsolventen und Doktoranden. Es dient auch als wertvolles Nachschlagewerk für Forscher und Fachleute, die dynamische Programmierung, stochastische Programmierung und Kontrolltheorie zur Lösung von Problemen bei ihrer täglichen Arbeit einsetzen.