Practical Black-Box Attacks against Deep Learning Systems using Adversarial Examples
Dieses Paper ist aus meiner Sicht sehr spannend, weil der Angreifer nicht wissen muss, mit welchem Trainingsset das neuronale Netzwerk trainiert wurde.
Das heißt im konkreten Fall, dass es möglich war, bei einem auf das erkennen von deutschen Straßenschildern trainiertes neuronales Netz mit einem manipulierten Bild eines “STOPP” Schildes es als “Vorfahrt gewähren” zu erkennen.
Das wird inbesondere spannend, wenn diese Manipulationen auch durch physikalische Manipulation des Schildes möglich wären, wenn es ums autonome Fahren geht.
Auch interessant ist die Frage, ob solche Attacken bei übermenschlich intelligenten KI’s hilfreich/möglich wären.
Des weiteren: Das bezieht sich ja auf neuronalen Netzen nachempfundene Algorithmen, die Mutter aller neuronalen Netze sitzt in jedem unserer Köpfe, kann man solche Attacken womöglich auch auf biologische neuronale Netze übertragen?
Alles in allem, interessant!