Bewertung:

Derzeit gibt es keine Leserbewertungen. Die Bewertung basiert auf 2 Stimmen.
Approximate Bayesian Inference
Die für statistische Schlussfolgerungen äußerst beliebten Bayes'schen Methoden werden auch beim maschinellen Lernen und bei Problemen der künstlichen Intelligenz immer beliebter. Bayes'sche Schätzer werden häufig durch Monte-Carlo-Methoden implementiert, wie z.
B. den Metropolis-Hastings-Algorithmus des Gibbs-Samplers. Diese Algorithmen zielen auf die exakte Posterior-Verteilung ab.
Viele der modernen Modelle in der Statistik sind jedoch einfach zu komplex, um solche Methoden anzuwenden. Beim maschinellen Lernen sind Monte-Carlo-Methoden aufgrund der Menge der in der Praxis verwendeten Daten zu langsam, um nützlich zu sein. Andererseits erfordern diese Anwendungen oft keine exakte Kenntnis des Posteriors.
Dies hat die Entwicklung einer neuen Generation von Algorithmen motiviert, die schnell genug sind, um große Datensätze zu verarbeiten, aber oft eine Annäherung an das Posterior anstreben. Dieses Buch versammelt 18 Forschungsarbeiten von Spezialisten für approximative Bayes'sche Inferenz und bietet einen Überblick über die jüngsten Fortschritte bei diesen Algorithmen. Dazu gehören optimierungsbasierte Methoden (wie Variationsapproximationen) und simulationsbasierte Methoden (wie ABC- oder Monte-Carlo-Algorithmen).
Die theoretischen Aspekte der approximativen Bayes'schen Inferenz werden behandelt, insbesondere die PAC-Bayes-Grenzen und die Regret-Analyse. Außerdem werden Anwendungen für anspruchsvolle Rechenprobleme in den Bereichen Astrophysik, Finanzen, medizinische Datenanalyse und Computer Vision vorgestellt.