Ungefähres dynamisches Programm

Bewertung:   (4,1 von 5)

Ungefähres dynamisches Programm (B. Powell Warren)

Leserbewertungen

Zusammenfassung:

Das Buch bietet eine klare und gut lesbare Einführung in das Reinforcement Learning und die dynamische Programmierung und eignet sich daher zum Selbststudium. Es erklärt Konzepte effektiv und bietet gute Beispiele. Einige Leser haben jedoch Probleme mit der Kindle-Version und eine Vorliebe für eine andere Notation als in anderen Texten festgestellt.

Vorteile:

Sehr gut lesbare und klare Erklärungen
bietet einen guten Überblick über Reinforcement Learning und dynamische Programmierung
enthält hilfreiche Beispiele und Implementierungstipps
gut geeignet für Anfänger.

Nachteile:

Probleme mit der Formatierung der Kindle-Version; die Notation weicht von Bertsekas' Werken ab, was einige Leser verwirren könnte.

(basierend auf 7 Leserbewertungen)

Originaltitel:

Approximate Dynamic Programmin

Inhalt des Buches:

(Lob für die erste Ausgabe)

"Endlich ein Buch, das sich der dynamischen Programmierung widmet und in der Sprache des Operations Research (OR) geschrieben ist. Dieses schöne Buch füllt eine Lücke in den Bibliotheken von OR-Spezialisten und Praktikern.".

-- Computing Reviews

Diese neue Ausgabe legt den Schwerpunkt auf die Modellierung und Berechnung komplexer Klassen von Problemen der approximativen dynamischen Programmierung

Das Verständnis der approximativen dynamischen Programmierung (ADP) ist von entscheidender Bedeutung für die Entwicklung praktischer und qualitativ hochwertiger Lösungen für komplexe industrielle Probleme, insbesondere dann, wenn diese Probleme das Treffen von Entscheidungen in Gegenwart von Ungewissheit beinhalten. Approximate Dynamic Programming, Second Edition integriert auf einzigartige Weise vier verschiedene Disziplinen - Markov-Entscheidungsprozesse, mathematische Programmierung, Simulation und Statistik -, um zu demonstrieren, wie man eine breite Palette von realen Problemen mit Hilfe von ADP erfolgreich angehen, modellieren und lösen kann.

Das Buch schlägt weiterhin die Brücke zwischen Informatik, Simulation und Operations Research und übernimmt nun die Notation und das Vokabular des Reinforcement Learning sowie der stochastischen Suche und Simulationsoptimierung. Der Autor skizziert die wesentlichen Algorithmen, die als Ausgangspunkt für den Entwurf von praktischen Lösungen für reale Probleme dienen. Die drei Flüche der Dimensionalität, die sich auf komplexe Probleme auswirken, werden vorgestellt, und es wird ausführlich auf die Herausforderungen bei der Implementierung eingegangen. Die zweite Auflage bietet außerdem:

⬤ Ein neues Kapitel, in dem vier grundlegende Klassen von Strategien für die Arbeit mit verschiedenen stochastischen Optimierungsproblemen beschrieben werden: kurzsichtige Strategien, vorausschauende Strategien, Näherungen von Strategienfunktionen und Strategien, die auf Näherungen von Wertfunktionen basieren.

⬤ Ein neues Kapitel über Policy-Suche, das stochastische Such- und Simulationsoptimierungskonzepte zusammenführt und eine neue Klasse optimaler Lernstrategien vorstellt.

⬤ Aktualisierte Behandlung des Explorations-Ausbeutungs-Problems in ADP, jetzt einschließlich einer kürzlich entwickelten Methode für aktives Lernen bei Vorhandensein eines physikalischen Zustands, unter Verwendung des Konzepts des Wissensgradienten.

⬤ Eine neue Reihe von Kapiteln, in denen statistische Methoden zur Annäherung von Wertfunktionen, zur Schätzung des Wertes einer festgelegten Strategie und zur Annäherung von Wertfunktionen bei der Suche nach optimalen Strategien beschrieben werden.

Der Schwerpunkt der Darstellung von ADP liegt auf Modellen und Algorithmen, wobei der Schwerpunkt auf verwandten Anwendungen und Berechnungen liegt, während auch die theoretische Seite des Themas erörtert wird, die Beweise für Konvergenz und Konvergenzrate untersucht. Eine zugehörige Website bietet eine fortlaufende Diskussion über die sich entwickelnden Bereiche der dynamischen Approximationsprogrammierung und des Verstärkungslernens, zusammen mit zusätzlicher Lektüre, Software und Datensätzen.

Approximate Dynamic Programming, Second Edition, erfordert nur ein grundlegendes Verständnis von Statistik und Wahrscheinlichkeit und ist ein ausgezeichnetes Buch für Kurse in Wirtschaftsingenieurwesen und Operations Research auf dem Niveau von Hochschulabsolventen und Doktoranden. Es dient auch als wertvolles Nachschlagewerk für Forscher und Fachleute, die dynamische Programmierung, stochastische Programmierung und Kontrolltheorie zur Lösung von Problemen bei ihrer täglichen Arbeit einsetzen.

Weitere Daten des Buches:

ISBN:9780470604458
Autor:
Verlag:
Einband:Hardcover
Erscheinungsjahr:2011
Seitenzahl:656

Kauf:

Derzeit verfügbar, auf Lager.

Ich kaufe es!

Weitere Bücher des Autors:

Ungefähres dynamisches Programm - Approximate Dynamic Programmin
(Lob für die erste Ausgabe)"Endlich ein Buch, das sich der dynamischen Programmierung widmet und in...
Ungefähres dynamisches Programm - Approximate Dynamic Programmin
Sequentielle Entscheidungsanalyse und Modellierung: Modellierung mit Python - Sequential Decision...
Sequentielle Entscheidungsprobleme treten in...
Sequentielle Entscheidungsanalyse und Modellierung: Modellierung mit Python - Sequential Decision Analytics and Modeling: Modeling with Python
Ein moderner Ansatz für den Unterricht zur Einführung in die Optimierung - A Modern Approach to...
Optimierung sollte die Wissenschaft vom Treffen...
Ein moderner Ansatz für den Unterricht zur Einführung in die Optimierung - A Modern Approach to Teaching an Introduction to Optimization
Verstärkungslernen und stochastische Optimierung: Ein einheitlicher Rahmen für sequenzielle...
VERSTÄRKUNGSLERNEN UND STOCHASTISCHE OPTIMIERUNG ...
Verstärkungslernen und stochastische Optimierung: Ein einheitlicher Rahmen für sequenzielle Entscheidungen - Reinforcement Learning and Stochastic Optimization: A Unified Framework for Sequential Decisions

Die Werke des Autors wurden von folgenden Verlagen veröffentlicht: