
Kernels for Vector-Valued Functions: A Review
Kernel-Methoden gehören zu den beliebtesten Techniken des maschinellen Lernens. Aus Sicht der Regularisierungstheorie bieten sie eine natürliche Wahl für den Hypothesenraum und die Regularisierungsfunktion durch den Begriff der reproduzierenden Kern-Hilbert-Räume.
Aus wahrscheinlichkeitstheoretischer Sicht sind sie der Schlüssel im Zusammenhang mit Gaußschen Prozessen, wo die Kernel-Funktion als Kovarianzfunktion bekannt ist. Die Theorie der Kernel-Methoden für einwertige Funktionen ist inzwischen gut etabliert, und in der Tat wurde ein beträchtlicher Teil der Arbeit dem Entwurf und dem Lernen von Kerneln gewidmet. In jüngster Zeit hat das Interesse an Methoden, die mit mehreren Ausgängen arbeiten, zugenommen, zum Teil motiviert durch Rahmenwerke wie das Multitasking.
Zu den Anwendungen von Kerneln für vektorwertige Funktionen gehören Sensornetzwerke, Geostatistik, Computergrafik und einige mehr. Kernels for Vector-Valued Functions: Ein Überblick über verschiedene Methoden zum Entwerfen oder Lernen gültiger Kernel-Funktionen für mehrere Ausgänge, mit besonderem Augenmerk auf die Verbindung zwischen probabilistischen und Regularisierungsmethoden.
Kernels for Vector-Valued Functions: A Review richtet sich an Forscher mit Interesse an der Theorie und Anwendung von Kerneln für vektorwertige Funktionen in Bereichen wie Statistik, Informatik und Ingenieurwesen. Eines seiner Ziele ist die Bereitstellung eines einheitlichen Rahmens und einer gemeinsamen Terminologie für Forscher, die im Bereich des maschinellen Lernens und der Statistik arbeiten.