Bewertung:

Das Buch bietet einen gut lesbaren Überblick über gegnerische Angriffe und Deep Learning, so dass es auch für technisch nicht versierte Leser zugänglich ist, während es gleichzeitig einige technische Inhalte für professionelle Programmierer enthält. Es wurde jedoch für seinen Mangel an Tiefe, unzureichende Programmierbeispiele und unnötiges Einführungsmaterial kritisiert.
Vorteile:⬤ Großartig für Programmierer und KI-Enthusiasten
⬤ sehr lesenswert
⬤ erklärt Deep Learning und gegnerische Bedrohungen gut
⬤ optimistische Sicht auf KI
⬤ geeignet für diejenigen, die ein grundlegendes Verständnis suchen.
⬤ Zu grundlegend für erfahrene Leser
⬤ es fehlt an Tiefe und technischem Detail
⬤ spärliche Programmierbeispiele
⬤ langatmiges Einführungsmaterial ist unnötig
⬤ erfüllt möglicherweise nicht die Bedürfnisse derjenigen, die eine gründlichere Erforschung des Themas suchen.
(basierend auf 3 Leserbewertungen)
Strengthening Deep Neural Networks: Making AI Less Susceptible to Adversarial Trickery
Da tiefe neuronale Netze (DNNs) immer häufiger in realen Anwendungen zum Einsatz kommen, bietet die Möglichkeit, sie absichtlich mit Daten zu täuschen, die einen Menschen nicht täuschen würden, einen neuen Angriffsvektor. Dieses praktische Buch untersucht reale Szenarien, in denen DNNs - die Algorithmen, die einem Großteil der KI zugrunde liegen - täglich zur Verarbeitung von Bild-, Audio- und Videodaten eingesetzt werden.
Die Autorin Katy Warr befasst sich mit den Motiven für Angriffe, den Risiken, die dieser gegnerische Input mit sich bringt, und den Methoden zur Erhöhung der Robustheit von KI gegenüber diesen Angriffen. Wenn Sie ein Datenwissenschaftler sind, der DNN-Algorithmen entwickelt, ein Sicherheitsarchitekt, der sich dafür interessiert, wie man KI-Systeme widerstandsfähiger gegen Angriffe machen kann, oder jemand, der von den Unterschieden zwischen künstlicher und biologischer Wahrnehmung fasziniert ist, dann ist dieses Buch genau das Richtige für Sie.
⬤ Eintauchen in DNNs und entdecken, wie sie durch gegnerische Eingaben ausgetrickst werden können.
⬤ Untersuchen Sie die Methoden, die verwendet werden, um gegnerische Eingaben zu generieren, mit denen DNNs getäuscht werden können.
⬤ Erforschen Sie reale Szenarien und modellieren Sie die Bedrohung durch den Gegner.
⬤ Bewertung der Robustheit neuronaler Netze; Erlernen von Methoden zur Erhöhung der Widerstandsfähigkeit von KI-Systemen gegenüber gegnerischen Daten.
⬤ Untersuchen Sie einige Möglichkeiten, wie KI in den kommenden Jahren die menschliche Wahrnehmung besser imitieren könnte.