Abbildung 2: Die grundlegende Idee des CyberProtect-Lösungsansatzes. CMS zu stören. Hacker können Adversarial Examples verwenden, um unbemerkt vom CMS Prozessdaten zu manipulieren (Abb. 1). Durch die Manipulation der Prozessdaten können Produktionssysteme gestört oder beschädigt werden, z. B. kann ein manipu- liertes Heißluftmodul zu einem Brand in der Fabrik führen. Die Literatur beschreibt Adversarial Examples als manipulierte Eingaben mit der Fähigkeit, ein DNN zu täuschen, sodass das DNN die Eingabe falsch kategorisiert. Dabei sind Adversarial Examples nahezu identisch im Vergleich zu nicht manipulierten Eingaben. DNN werden unter anderem in autonomen Fahrzeugen zur Auswertung von Kamerabil- dern eingesetzt. In diesem Zusammenhang sind Adversarial Examples beispielsweise manipulierte Bilder, die dazu führen, dass ein DNN ein Stoppschild fälschlicherweise als Vorfahrtsschild erkennt. Dies kann zu Sach- und Personenschäden führen. Sicherheitsforscher am Fraunhofer IOSB-INA in Lemgo haben einen Lösungsansatz ent- wickelt, um CMS vor Angriffen mit Adver- sarial Examples zu schützen. Die Software- lösung CyberProtect berechnet Adversarial Examples und verwendet diese, um DNN- basierte CMS abzusichern (Abb. 2). Für die Berechnung von Adversarial Examples wird ein trainiertes DNN benötigt. Zunächst wird ein DNN mit zuvor aufgezeichneten Prozessdaten eines CPPS trainiert. Die Pro- zessdaten beinhalten sowohl fehlerhafte als auch nicht fehlerhafte Produktionsdurch- läufe. Anschließend werden Adversarial Examples berechnet, indem mithilfe des trainierten DNN spezielle Prozessdatenwerte ausgewählt und manipuliert werden. Das DNN wird nun mit den Prozessdaten und den berechneten Adversarial Examples neu trainiert. Dadurch bildet das DNN nicht nur den physikalischen Prozess ab, sondern auch Prozessdaten, die zu einer falschen Erkennung durch das CMS führen können. Das Ergebnis ist ein DNN, das vor Manipu- lation durch Adversarial Examples geschützt ist. Der Einsatz von CyberProtect hat zwei Vorteile: DNN in CMS können bezüglich ihrer Fähigkeit zur Fehlererkennung bewertet werden, indem sie durch Adversarial Examples getestet werden. DNN können vor Manipulation durch Adversarial Examples geschützt und CMS somit verbessert werden. Zukünftige Arbeiten befassen sich mit einem generalisierten Lösungsansatz, um DNN nicht nur gegen bekannte, sondern auch gegen unbekannte Adversarial Examples zu schützen. Literatur: [1] F. Specht; J. Otto; O. Niggemann; B. Hammer: Generation of Adversarial Examples to Prevent Misclassification of Deep Neural Network based Condition Monitoring Systems for Cyber-Physical Production Systems. In Proc. of 16th IEEE Inter- national Conference on Industrial Informatics (INDIN), 2018. [2] J. Otto; B. Vogel-Heuser; O. Niggemann: Automatic parameter estimation for reusable software components of modular and reconfi- gurable cyber-physical production systems in the domain of discrete manufacturing. IEEE Transac- tions on Industrial Informatics, 14(1):275–282, 2018. [3] C. Szegedy; W. Zaremba; I. Sutskever; J. Bruna; D. Erhan; I. Goodfellow; R. Fergus: Intriguing properties of neural networks. In Proc. of the 2nd International Conference on Learning Represen- tations (ICLR), Banff, Canada, 2014. [4] I. Goodfellow; J. Shlens; C. Szegedy: Explaining and harnessing adversarial examples. In Proc. of the 3rd International Conference on Learning Representations (ICLR), San Diego, USA, 2015. [5] J. Otto; B. Vogel-Heuser; O. Niggemann: Online parameter estimation for cyber-physical production systems based on mixed integer nonlinear programming, process mining and black-box optimization techniques. at - Auto- matisierungstechnik 66.4 (2018): 331-343. vis IT 7 Privacy by Design und IT-Sicherheit