# Human-Computer Interaction
Projekt: Counterfactual explanations for a classification networks
Thema: Counterfactual explanations for pneunomia in chest-x-ray images
## Blatt 3
### Aufgabe 1
#### Interessengruppen
- Data ScientistInnen / StatistikerInnen / MathematikerInnen
- Hintergrundinformationen zu errechneten Ergebnissen
- Beziehungen zwischen Ein- und Ausgabe visualisieren
- erweiterte Interpretationsmöglichkeiten
- Evaluering der Aussagekraft eines Systems
- InformatikerInnen / EntwicklerInnen
- Generieren von Trainingsdaten
- Reporting
- Safety-EngineerInnen
- Generieren von Datensätze für Angriffe auf neuronale Netze
- Sicherheitslücken aufdecken
- Reporting
- TesterInnen
- Wieso hat die Anwendung bei der gegebenen Eingabe nicht das gewünschte Ergebnis geliefert?
- Testfälle generieren
- AnwenderInnen
- Wie muss ich meine Eingaben ändern, damit das gewünschte herauskommt?
- Nachvollziehbarkeit von Entscheidungen
- Erklärungen generieren
#### Nutzungskontexte
- Produktentwicklung:
- NutzerInnen:
- Alter: 18 - 70
- Geschlecht: m/w/d
- Fähigkeiten: Erfahren im praktischen Umgang mit ML
- Qualifikationen und Aufgabenwissen: Studium Ausbildung
- Einstellung und Motivation: keine persöhnliches Interesse
- Technisch: Tensorflow, Keras, Pytorch, Jupiter, Python, Numpy, GPUs, Serverlandschaft
- Physikalisch: Unternehmen
- Organisatorisch (Sozial): Projektteam
- Tasks: Teilbeitrag zum Projekt, arbeitet Vollzeit, abhängig von anderen Teams
- Forschung:
- NutzerInnen:
- Alter 19-99
- Geschlecht: m/w/d
- Fähigkeiten: ExpertIn
- Qualifikationen und Aufgabenwissen: Studium, Forschung
- Einstellung und Motivation: Research, Hochmotiviert, persöhnliches Interesse
- Technisch: Tensorflow, Keras, Pytorch, Jupyter, Python, Numpy, GPUs, Desktops
- Physikalisch: Universität
- Organisatorisch (Sozial): Forschungsprojekt, Einzelarbeit
- Tasks: Beitrag zum wissenschaftlichen Stand durch Publizierungen, abhängig von ForschungspartnerInnen
- EndnutzerInnen:
- NutzerInnen:
- Alter: 0 - 99
- Geschlecht: m/w/d
- Fähigkeiten: Laie
- Qualifikationen und Aufgabenwissen: Keine
- Einstellung und Motivation: Neugierde, Nutzenorientiert
- Technisch: GUI, Desktop-PC, Sprachinterface
- Physikalisch: keine Einschränkung
- Tasks: Verwendet das Projekt, gibt evtl. Feedback
## Fragen
### Künstliche Intelligenz
- Haben Sie bereits von dem Begriff Künstliche Intelligenz (KI) gehört?
- ja
- nein
Künstliche Intelligenz beschäftigt sich mit der Erforschung von intelligenten Agenten.
Umgangssprachlich wird der Begriff künstliche Intelligenz oft verwendet, um Maschinen (oder Computer) zu beschreiben, die kognitive Funktionen nachahmen, die Menschen mit dem menschlichen Verstand verbinden, wie Lernen und Problemlösen.
- Wie würdest du dein Wissen über Künstliche Intelligenz einschätzen?
- Ich kann den Begriff genau erklären
- Ich kann den Begriff grob erklären
- Ich habe den Begriff schon gehört, kann mir aber nichts Genaues darunter vorstellen
- Wie ist im Generellen deine Einstellung zu Künstlicher Intelligenz?
- sehr negativ <-> sehr positiv
- In welchen Bereichen sollte Künstliche Intelligenz eingesetzt werden?
- Haushalt
- Pflege
- Erziehung
- Verkehr
- Freizeitbereich
- Künstlerische Tätigkeiten
- Sicherheit
- Welche Zukunft werden wir deiner Meinung nach mit Künstlicher Intelligenz haben?
- Unser Leben wird schlechter
- Unser Leben wird besser
- Negative und positive Effekte halten sich die Waage
- Weiß nicht
Unter Erklärbarer Künstlicher Intelligenz (XAI) versteht man Methoden die zum Verständnis von KI beitragen. Das Ziel von XAI ist es KI Entscheidungen zu erklären und verstehen.
- Ich finde XAI ist wichtig für die Nutzung von KI im Alltag
- Ich möchte, das KI-Systeme die ich nutze erklärbar sind
- XAI würde mein Vertrauen in KI stärken
Wie schätzen Sie die Relevanz von XAI in den folgenden Kontexten ein? (Unwichtig - Sehr wichtig)
- Forschung
- Wirtschaft
- Politik
- Alltag
### Technisch
#### Trifft zu fragen
(#1) Haben sie schonmal eine KI Anwendung entickelt oder konzipiert?
- Ja / Nein
IF (#1)
Bewerten Sie folgende Aussagen:
- Ich kenne den Begriff "Counterfactual Explanations"
- Ich habe mich schonmal mit der Erklärbarkeit von KI-Anwendungen beschäftigt
- Ich habe in meinem Alltag mit KI zu tun
- Ich habe schon einmal mit KI gearbeitet
- Ich habe vertrauen in KI Anwendungen
- Bei einer KI-Anwendung ist es mir wichtig zu verstehen warum eine Entscheidung getroffen wurde
- Erklärungen zu den Entscheidungen von Künstlicher Intelligenz würden mein Vertrauen in KI stärken
ENDIF (#1)
Eine Counterfactual Explanation (CE) eine Eingabe (z.B. ein Bild) die so lange mutiert wurde, bis die KI zu einer neuen Entscheidung über diese gelangt. Eine CE liefert so die minimale Menge an Eigenschaften die an der Eingabe verändert werden müssen um die Entscheidung der KI zu beeinflussen.
- Eine Counterfactual Explanation hilft mir die KI besser zu interpretieren
- Ich kann mir vorstellen das eine CE im Alltag einsetzbar ist.
- Ich kann Counterfactual Explanations benutzen um die KI zu erklären
- Wenn ich eine CE zu einer Entscheidung der KI erhalte, kann ich der KI mehr vertrauen
- Ich schätze CE als zu Hypothetisch ein
- Ich glaube, das CEs keine gute Erklärung für eine KI sind
- Counterfactual Explanations sind wichtig für die Entwicklung von Künstlicher Intelligenz
In welchen Bereichen sollten CE als Erklärung hergenommen werden?
- Verkehr
- Finanzwesen
- Soziale Kommunikation
- Sicherheit
- Freizeit
- Haushalt
Generative Adversarial Networks (GANs) sind Netzwerke, die neue Daten generieren. Dabei sollen die generierten Daten so gut sein, das ein anderes Netzwerk sie als echte Daten klassifiziert.
**TODO: Fragen zur Nutzung von GANS**
## Fragen Medizinisches Umfeld
Bewerten Sie folgende Aussagen:
- KI kann in der Medizin für präzisere ergebnisse sorgen
- Ich würde einem Computer einen Teil meiner Aufgaben Anvertrauen
- Ich habe ein gutes gefühl dabei, von einer KI unterstützt zu werden
- Ich kann eine KI Diagnose nur mit einer passenden Erklärung gebrauchen
- Eine KI die eine Diagnose ohne Begründung liefert ist nutzlos
- Ein Patient sollte erfahren ob seine Diagnose von einer KI unterstützt wurde
- Ein Patient sollte eine eindeutige Erklärung für seine Diagnose erhalten
- Ich möchte nicht, dass meine Meinung durch einen Computer beeinflusst wird
- Wenn ich die Diagnose einer KI sehe, trübt das meine Objektivität.
Sie erhälten das folgenden Röntgenbild:


Die Diagnose der KI ist: Lungenentzündung (Wahrscheinlichkeit 70%)
Bitte bantworten Sie ausgehend von dieser Situation die folgenden Fragen.
- Ich stimme der Aussage der KI zu. J/N
- Wie sehr vertrauen Sie dieser Aussage?
+ gar nicht <---> sehr
- Würden Sie der Aussage mehr vertrauen, wenn Ihnen noch eine Erklärung vorläge, wie die KI zu dieser Entscheidung kam?
- Ja / Nein `#2`
`IF #2`
- Wie sehr würde sich ihr vertrauen in die Aussage verbessern
- minimal <---> sehr stark
`ENDIF`
Ein generatives Netz kann Ihnen in dieser Situation eine Counterfactual Explanation liefern. Eine Counterfactual Explanation (CE) hier ist ein neu generiertes Bild auf grundlage dieses Röntgenbildes bei dem die KI zu einer neuen Entscheidung über diese gelangt. Eine CE liefert Ihen so ein mutiertes Röntgenild, bei dem die KI zu einer anderen Entscheidung gekommen wäre.
Ein solches Counter Factual könnte so aussehen:
