
Die Optimierung ist ein Forschungsbereich, der in verschiedenen Bereichen der Wissenschaft und Technik von großer Bedeutung ist. Zu den Methoden, die Teil der verschiedenen Software zur Lösung von Optimierungsmodellen sind, gehören die projektiven Methoden.
Die Konvergenzeigenschaften dieser Methoden sind unter bestimmten Konvexitätsbedingungen garantiert. Ein Nachteil ist der hohe Rechenaufwand für die Durchführung jeder Iteration einer Projektion sowie die Ungewissheit, wenn das Problem seine Konvexität verliert. Eine Möglichkeit, diese Schwierigkeiten zu vermeiden, besteht darin, die Werkzeuge der Riemannschen Geometrie zu verwenden.
Einer der Vorteile ist, dass eingeschränkte Probleme als uneingeschränkt betrachtet werden können und nicht-konvexe Funktionen in konvexe umgewandelt werden können. In diesem Buch werden die Konvergenzeigenschaften der Gradientenmethode auf die Minimierung quasikonvexer Funktionen auf diesen Varietäten ausgedehnt und damit der Anwendungsbereich der Methode erweitert.
Das Material richtet sich an Forscher, Praktiker und Studenten der angewandten Mathematik, die neue effiziente Optimierungsmethoden konstruieren, lehren bzw. lernen wollen.