
Determinantal Point Processes for Machine Learning
Determinante Punktprozesse (DPPs) sind elegante probabilistische Modelle der Abstoßung, die in der Quantenphysik und der Zufallsmatrixtheorie vorkommen. Im Gegensatz zu traditionellen strukturierten Modellen wie Markov-Zufallsfeldern, die bei Vorhandensein negativer Korrelationen schwer zu approximieren sind, bieten DPPs effiziente und exakte Algorithmen für Sampling, Marginalisierung, Konditionierung und andere Inferenzaufgaben.
Während sie von Mathematikern ausgiebig studiert wurden und zu einer tiefgründigen und schönen Theorie geführt haben, sind DPPs für das maschinelle Lernen relativ neu. Determinantal Point Processes for Machine Learning bietet eine verständliche Einführung in DPPs, wobei der Schwerpunkt auf den Intuitionen, Algorithmen und Erweiterungen liegt, die für die Gemeinschaft des maschinellen Lernens am relevantesten sind, und zeigt, wie DPPs auf reale Anwendungen angewandt werden können, wie z. B.
das Auffinden verschiedener Mengen hochwertiger Suchergebnisse, die Erstellung informativer Zusammenfassungen durch die Auswahl verschiedener Sätze aus Dokumenten, die Modellierung nicht überlappender menschlicher Posen in Bildern oder Videos und die automatische Erstellung von Zeitleisten wichtiger Nachrichten. Es wird der allgemeine mathematische Hintergrund von DPPs zusammen mit einer Reihe von Modellierungserweiterungen, effizienten Algorithmen und theoretischen Ergebnissen vorgestellt, die das praktische Modellieren und Lernen ermöglichen sollen.