Kontrafaktische Erklärungen

Mit kontrafaktische Erklärungen versucht man die Verhaltensweisen eines Modells verständlich zu machen.

Dabei wird untersucht wie sich die Eingabe des Modells verändern muss, damit das Modell eine andere Entscheidung trifft. Dadurch kann man nachvollziehen auf welche Merkmale das Modell besonders acht gibt.

In dieser Anwendung erklären wir das Verhalten eines KI-Modells das darauf trainiert wurde zu entscheiden, ob eine Person lächelt oder nicht lächelt. Dafür wollen wir herausfinden welche Bereiche im Gesicht der Personen sich verändern müssen, damit das Modell seine Entscheidung ändert. Dafür Vergleichen wir die kontrafaktische Erklärung einer XAI-Methode und Ihrer eigenen Vorstellung des Konzepts “Lächeln”.