Bewertung:

Derzeit gibt es keine Leserbewertungen. Die Bewertung basiert auf 10 Stimmen.
Neural Network Learning: Theoretical Foundations
Dieses wichtige Werk beschreibt die jüngsten theoretischen Fortschritte bei der Untersuchung künstlicher neuronaler Netze. Es erforscht probabilistische Modelle für überwachte Lernprobleme und behandelt die wichtigsten statistischen und rechnerischen Fragen.
Die Kapitel geben einen Überblick über die Forschung zur Musterklassifizierung mit binären Ausgangsnetzen, einschließlich einer Diskussion über die Relevanz der Vapnik-Chervonenkis-Dimension und von Schätzungen der Dimension für verschiedene neuronale Netzmodelle. Darüber hinaus entwickeln Anthony und Bartlett ein Modell der Klassifizierung durch Netze mit echtem Ausgang und demonstrieren die Nützlichkeit der Klassifizierung mit einem großen Spielraum. Die Autoren erläutern die Rolle der skalensensitiven Versionen der Vapnik-Chervonenkis-Dimension bei der Klassifizierung mit großem Spielraum und bei der realen Vorhersage.
In den Schlüsselkapiteln wird auch die rechnerische Komplexität des Lernens mit neuronalen Netzen erörtert, wobei eine Vielzahl von Härteergebnissen beschrieben und zwei effiziente, konstruktive Lernalgorithmen vorgestellt werden. Das Buch ist in sich geschlossen und für Forscher und Studenten der Informatik, Ingenieurwissenschaften und Mathematik zugänglich.