
Transparency and Interpretability for Learned Representations of Artificial Neural Networks
Künstliche Intelligenz (KI) ist ein Konzept, dessen Bedeutung und Wahrnehmung sich in den letzten Jahrzehnten erheblich gewandelt hat. Ausgehend von einzelnen, rein theoretischen Forschungsbemühungen in den 1950er Jahren hat sich die KI zu einem voll entwickelten Forschungsgebiet der Neuzeit entwickelt und kann wohl als eine der wichtigsten technologischen Errungenschaften der Menschheit angesehen werden.
Trotz dieser rasanten technologischen Fortschritte bleiben einige zentrale Fragen rund um das Thema Transparenz, Interpretierbarkeit und Erklärbarkeit der Entscheidungsfindung einer KI unbeantwortet. Aus den immer strengeren Anforderungen an den Einsatz von KI in sicherheitskritischen oder ethisch sensiblen Bereichen hat sich daher ein junges Forschungsfeld entwickelt, das den allgemeinen Begriff Explainable AI (XAI) trägt.
Ein wichtiger Forschungszweig von XAI ist die Entwicklung von Methoden, die helfen, ein tieferes Verständnis für das gelernte Wissen künstlicher neuronaler Systeme zu ermöglichen. In diesem Buch wird eine Reihe wissenschaftlicher Studien vorgestellt, die aufzeigen, wie man einen von den empirischen Neurowissenschaften inspirierten Ansatz zur Untersuchung der gelernten Repräsentation eines neuronalen Netzes in Anlehnung an die neurowissenschaftlichen Untersuchungen des Gehirns anwenden kann.