# Notizen von Agnes, Meeting (10.01.22)
Gedächtnispalast
· Lernen im virtuellen Raum
o In wie weit kann so ein Geächtnispalast unterstützen
· Tags – Clouds
o Sortiert nach Tags
o Kategorisiert
· System, interagiert mit dem Nutzer
o Macht Vorschläge wo im Palast kann ich das verorten?
· Graphen Visualisierung
Rundgänge durch den Gedächtnispalast
Suchanfrage
Memory palace AND
Method of loci AND
(Virtual AND (reality OR space))
# Was tun wir hier?
Material und Linksammlung Paper und Werkzeuge zu Visualisierung von "KI"?
Vielleicht noch an dieser Stelle die Grundidee von Agnes: "Ergebnisse einer Suchmaschinensuche sollte in einer "besonderen From", möglicherweise in 3D-dargestellt werden"
Daraus entwickelte sich die Idee von Michael, KI-Algorithmen, -Entscheiungen in einer Form zu visualisieren, die es potentiellen Nutzern ermöglicht, die vorgeschlagenen Entscheidungen und wie sie getroffen/errechnet wurden leichter nachzuvollziehen.
Die ganzen Blockschaltbilder, mit denen "KI" dargestellt wird sind super unkonkret und nicht technisch funktional, quasi "memes" von Leuten auf Vorträgen fürs Publikum.
XAI-Tools (Explainable AI) macht aus solchen inhaltsleeren Bildern dann technisch interpretierbare Diagramme mit technisch harten aussagen, die hoffentlich von Laien auch noch verstanden werden können?
# KI visualisieren
### aus [ichi.pro](https://ichi.pro/de/ki-visualisieren-157974511684487)
Die Erklärbarkeit in der KI ist derzeit ein heißes Thema. Da KI-Systeme eine zunehmende Rolle bei der Entscheidungsfindung spielen, besteht allgemeine Übereinstimmung darüber, dass diese Systeme Informationen liefern müssen, die ihren Entscheidungen oder Ratschlägen zugrunde liegen.
XAI-Tools und -Diensten, die AI (insb. KI-) Systemen helfen sollen, Benutzern ihre Entscheidungen und Aktionen zu erklären
In der Vergangenheit wurden die Ergebnisse von XAI-Tools typischerweise in rudimentären Formen dargestellt. Zum Beispiel mit einer Zahlentabelle und / oder einem Balkendiagramm.
Die Ergebnisse waren leicht zu interpretieren, aber in ihrer Erklärungskraft begrenzt.
"interpretierbare" KI und nicht als "erklärbare" KI
### aus [The top 5 open-source tools for visualizing AI-generated data](https://techbeacon.com/enterprise-it/top-5-open-source-tools-visualizing-ai-generated-data)
- convert raw AI and ML data into visualizations
##### Tools:
- HiPilot (High dimensional Interactive Plotting)
-[Beispiel](https://raw.githubusercontent.com/facebookresearch/hiplot/main/assets/notebook.png)
- Orange3
-[Beispiel](https://raw.githubusercontent.com/irgolic/orange3/README-shields/distribute/orange-example-tall.png)
- D3JS
-viele [Beispiel, HomeWebSite](https://d3js.org/)
- Facets
-[Beispiele, HomeWebSite](https://pair-code.github.io/facets/)
- TensorWatch (TensorFlow, beliebte KI Bib)
-[Beispiele, MicrosoftResearchBlog](https://www.microsoft.com/en-us/research/blog/microsoft-makes-ai-debugging-and-visualization-tool-tensorwatch-open-source/)
DONE ~~hier evtl. interessant wie siehts konkret aus, Beispiele ...~~
# Schlagwörter und Tags
- XAI ((Explainable AI))
- SHAP (SHapley Additive exPlanations)
## Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI
[Paper link]([https://www.sciencedirect.com/science/article/pii/S1566253519308103)
[PDF](https://myshare.uni-osnabrueck.de/smart-link/1b703a39-4109-4f46-b2cd-4980ec6508cd/)
- Tags: Explainable Artificial Intelligence Machine Learning Deep Learning Data Fusion Interpretability Comprehensibility Transparency Privacy Fairness Accountability Responsible Artificial Intelligence
# Experten, Projekte und Stakeholder
- DFKI
- In Thorstens Projekt eh dabei: Tobias Reuter, Christoph Tieben (WiMi), Fachgruppen Leiter ist Kai Lingemann(UOS), Chef ist Joachim Hertzberger (KI Chef in UOS(DFKI), Parallel Projekt "AGRI GAIA") *ist schon an Michael herangetreten, KI didaktisch aufzubereiten und nachvollziehbarer zu machen, WIE!*