Abb. 2: Beispiel eines Wissensmodells für seman- tische Erklärverfahren zur Fahrzeugdetektion. Im Modell werden die für Fahrzeuge optisch erkenn- baren Teile beschrieben. Dieses Wissen kann in Erklärverfahren eingebunden werden. Abb. 3: Semantische Relevanzprüfung für die Fahrzeugdetektion: Anhand des Wissensmodells wer- den die relevanten Teile für die Klasse Fahrzeug im Bild ermittelt (vgl. [4]) und entfernt. Für das derart veränderte Bild wird erneut das Detektionsergebnis berechnet und mit dem Ergebnis des Originalbilds verglichen. Aus dem Unterschied ergibt sich die Relevanz des entfernten Teiles für das Detektionsver- fahren (Testbild [3]). Plausibilität zu prüfen oder um zu beur- teilen, wie relevant einzelne Teile eines er- kannten Objektes bzw. sein Kontext für das Ergebnis waren. Als Ergebnis einer Plausibi- litätsprüfung (siehe Abbildung 1) kann das semantische Erklärverfahren z. B. feststellen, dass die Detektion eines Fahrzeuges plausibel ist (oder nicht), da auch Teile wie Räder, Türen etc. (oder eben nicht) auf dem Bild erkannt wurden. Für die Erkennung der Teile und des Kontextes sind weitere Bilderkennungsver- fahren (z. B. [2] für Schlüsselpunkte an Fahr- zeugen) und deren Verknüpfung zum Wissens- modell notwendig. Ist diese Verknüpfung erfolgt, verläuft die semantische Plausibili- tätsprüfung automatisch. Als Ergebnis wird eine natürlichsprachliche Erklärung erzeugt und durch Informationen, wie im Bild er- kannte Teile, ergänzt. NATÜRLICHSPRACHLICHE ERKLÄRUNGEN FÖRDERN VERSTÄNDNIS FÜR MASCHI- NELLE LERNVERFAHREN Für eine semantische Relevanzprüfung werden dagegen entsprechende Teile im Originalbild entfernt (z. B. durch Schwärzen), um im Sinne eines kontrafaktischen Erklär- ansatzes feststellen zu können, wie wichtig diese Teile für das zu prüfende KI-Ergebnis waren (siehe Abbildung 3). Auch hier kann das Ergebnis in Form einer natürlichsprach- lichen Erklärung dargestellt werden: »Die Front- scheibe im betrachteten Bild ist relevant für die Erkennung als ein Objekt der Klasse Fahr- zeug, da die Konfidenz der Erkennung um sechs Prozent absinken würde, wenn sie nicht im Bild wäre«. Eine Relevanzprüfung kann dabei nicht nur auf einzelnen Bildern durch- geführt, sondern auch über ganze Datensätze; so können etwa verschiedene Verfahren zur Fahrzeugdetektion besser verglichen werden. Natürlichsprachliche Erklärungen besitzen über diese Anwendungsfälle hinaus ein großes Potential, um maschinelle Lernver- fahren im Allgemeinen Menschen leichter zugänglich zu machen. Sie sind anpassbar an ein breites Nutzer*innen-Spektrum mit unterschiedlichem Wissenshintergrund zu maschinellen Lernverfahren. [1] Sander, Jennifer, and Achim Kuwertz. »Sup- plementing Machine Learning with Knowledge Models Towards Semantic Explainable AI« in: International Conference on Human Interaction and Emerging Technologies - Future Applications (IHIET-AI), 2021. [2] Wang, Zhongdao et al. »Orientation Invariant Feature Embedding and Spatial Temporal Regula- rization for Vehicle Re-Identification« in: The IEEE International Conference on Computer Vision (ICCV), 2017. [3] Krause, Jonathan, and Stark, Michael, and Deng, Jia, and Fei-Fei Li. »3D Object Represen- tations for Fine-Grained Categorization,« in: 4th IEEE Workshop on 3D Representation and Recog- nition at ICCV 2013 (3dRR-13), 2013. [4] Wu, Yuxin, and Kirillov, Alexander, and Massa, Francisco, and Lo, Wan-Yen, and Girshick, Ross. »Detectron2«, URL: https://github.com/facebook- research/detectron2, 2019. 11 vis IT Erklärbare KI im Praxiseinsatz