Bewertung:

Das Buch „Stochastic Control“ von Yong und Zhou bietet eine gründliche Einführung in die stochastische Theorie der optimalen Kontrolle, wobei verschiedene Schlüsselkonzepte mit Schwerpunkt auf theoretischen und praktischen Anwendungen effektiv miteinander verbunden werden. Es wird für seine gute Lesbarkeit und die umfangreichen Beispiele gelobt, aber auch für eine etwas komplizierte Notation und das Vorhandensein von Tippfehlern kritisiert.
Vorteile:Umfassende Abdeckung der stochastischen optimalen Kontrolltheorie, viele Beispiele, gut lesbare Darstellung, geeignetes Tempo für Leser mit einigen Vorkenntnissen.
Nachteile:Schwere Notation kann lästig sein, es gibt Tippfehler, setzt Vertrautheit mit fortgeschrittenen mathematischen Konzepten voraus.
(basierend auf 4 Leserbewertungen)
Stochastic Controls: Hamiltonian Systems and Hjb Equations
Bekanntlich sind das Maximumprinzip von Pontryagin und die dynamische Programmierung von Bellman die beiden wichtigsten und am häufigsten verwendeten Ansätze zur Lösung stochastischer optimaler Steuerungsprobleme.
* Ein interessantes Phänomen, das man in der Literatur beobachten kann, ist, dass diese beiden Ansätze getrennt und unabhängig voneinander entwickelt worden sind. Da beide Methoden zur Untersuchung desselben Problems verwendet werden, stellt sich natürlich die folgende Frage: (Q) Welche Beziehung besteht zwischen dem Maximalprinzip und der dy- namischen Programmierung bei stochastischen optimalen Kontrollen? Es gab bereits einige Untersuchungen (vor den 1980er Jahren) über die Beziehung zwischen diesen beiden.
Die Ergebnisse wurden jedoch in der Regel heuristisch formuliert und unter recht restriktiven Annahmen bewiesen, die in den meisten Fällen nicht erfüllt waren. Bei der Formulierung eines Maximalprinzips vom Typ Pontryagin gibt es eine adjungierte Gleichung, die im (endlich-dimensionalen) deterministischen Fall eine gewöhnliche Differentialgleichung (ODE) und im stochastischen Fall eine stochastische Differentialgleichung (SDE) ist. Das System, das aus der adjungierten Gleichung, der ursprünglichen Zustandsgleichung und der Maximalbedingung besteht, wird als (erweitertes) Hamiltonisches System bezeichnet.
Andererseits gibt es bei der dynamischen Programmierung nach Bellman eine partielle Differentialgleichung (PDE), die im (endlich-dimensionalen) deterministischen Fall von erster Ordnung und im stochastischen Fall von zweiter Ordnung ist. Diese Gleichung wird als Hamilton-Jacobi-Bellman-Gleichung (HJB) bezeichnet.