Bewertung:

Derzeit gibt es keine Leserbewertungen. Die Bewertung basiert auf 2 Stimmen.
Convex Optimization: Algorithms and Complexity
Diese Monographie stellt die wichtigsten Komplexitätstheoreme der konvexen Optimierung und die entsprechenden Algorithmen vor. Sie beginnt mit der grundlegenden Theorie der Black-Box-Optimierung und führt den Leser durch die jüngsten Fortschritte in der strukturellen Optimierung und der stochastischen Optimierung.
Die Darstellung der Black-Box-Optimierung, die stark von dem bahnbrechenden Buch von Nesterov beeinflusst ist, umfasst die Analyse von Schneidebenenmethoden sowie (beschleunigte) Gradientenabstiegsverfahren. Besonderes Augenmerk wird auch auf nicht-euklidische Einstellungen gelegt (relevante Algorithmen sind Frank-Wolfe, Mirror Descent und Dual Averaging) und ihre Bedeutung für das maschinelle Lernen diskutiert. Der Text bietet eine sanfte Einführung in die Strukturoptimierung mit FISTA (zur Optimierung einer Summe aus einem glatten und einem einfachen nicht-glatten Term), Saddle-Point Mirror Prox (Nemirovskis Alternative zur Nesterov-Glättung) und eine kurze Beschreibung von Interieur-Punkt-Methoden.
Im Bereich der stochastischen Optimierung werden stochastischer Gradientenabstieg, Mini-Batches, zufälliger Koordinatenabstieg und sublineare Algorithmen erörtert. Es wird auch kurz auf die konvexe Relaxation kombinatorischer Probleme und die Verwendung von Zufälligkeiten zur Abrundung von Lösungen sowie auf Random-Walk-Methoden eingegangen.