# Hausarbeit Vorbereitung
## Deckblatt
## Inhaltsverzeichnis
### Einleitung
### Begriffsdefinition
### Fallbeispiel
### Theorien und Konzepte
#### nach AlanTuringUniversity
#### ggf weitere wissenschaftliche Institution
### Analyse
### kritische Betrachtung anhand des Fallbeispiels
- also wie ist das in dem Fallbeispiel umgesetzt
- wenn umgesetzt -> Folgen aufzählen wenn nicht?!?
- wenn nicht umgesetzt Folgen aufzählen!
### Fazit
### Literaturverzeichnis
### eidesstaatliche Erklärung
## Einleitung
Werden digitale Entscheidungshelfer im öffentlichem Dienst in naher Zukunft über unser Leben bestimmen? In einem österreichischen Arbeitsmarktservice werden Personen durch KI nach deren Vermittlungsmöglichkeiten eingestuft. Doch sind digitale Entscheidungshelfer in Form einer KI ethisch vertretbar?
Die vorliegende Hausarbeit setzt sich mit dem Thema ethische KI auseinander und geht dabei auf die Frage ein, warum diese wichtig ist. KI wird in immer mehr in der Gesellschaft eingesetzt,
Aber wie wird das, was man unter Ethik versteht, überhaupt in der KI umgesetzt?
Das Ziel dieser Hausarbeit ist es, Ethische KI zu veranschaulichen und über Auswirkungen bei nicht Einhalten der ethischen Grundsätze bei der KI zu verdeutlichen.
Dazu werde ich in Kapitel 1 zunächst auf die Begrifflichkeiten und Definitionen eingehen.
In Kapitel 2 wird nochmal ausführlicher stellvertretend das Beispiel von dem digitalen Entscheidungshelger auf dem australischem Arbeitsmarkt erläutert.
Anschließend wird in Kapitel 3 die Richtlinie für ethische KI stellvertretend aus dem wissenschaftlichen Bereich von der Alan Turing Universität dargestellt. In Kapitel 3.1 wird das analysiert und dann in Kapitel 3.2 die theoretischen Überlegungen mit dem Fallbeispiel zusammengefügt.
## Hauptteil
### Begriffsbestimmungen und Definitionen
Unter Ethik versteht man den Bereich der Philosophie, der sich mit
den grundsätzlichen Fragen und Prinzipien von gut und böse, richtig und falsch beschäftigt.
Die grundlegende ethische Fragestellung lautet gemäß Immanuel Kant: "Was soll ich tun?" (Kant,1788).
Während die Moral, sich dabei eher subjektiven oder perönlichen Urteilen und Werten beschäftigt, versteht die Ethik dabei mehr die allgemeinen Urteile, Normen und Prinzipien. (vgl Robotik Ethik S 23)
Der Begiff künstliche Intelligenz ist nicht eindeutig definiert.
Diese Hausarbeit bezieht sich auf die Definition von Russell und Norvig:
"Wir definieren KI als das Studium von Agenten, die Wahrnehmungen aus der Umgebung erhalten und Aktionen ausführen. Jeder dieser Agenten implementiert eine Funktion, die Wahrnehmungssequenzen auf Aktionen abbildet, und wir behandeln verschiedene Arten der Darstellung dieser Funktionen, z. B. reaktive Agenten, Echtzeitplaner und entscheidungstheoretische Systeme." (Russel und Norvig, 2010 S.viii)
Die KI versucht also z.B. Muster in Trainingsdaten zu finden, die sich auffällig zu Ergebnisse verhalten, um dementsprechend zukünftige Ergebnisse ebenso entscheiden zu können.
Unter ethischer KI versteht man daher die Ausrichtung der KI an den ethischen Werten und Grundsätzen, die das Wohlbefinden der Gemeinden schützen. Sollte dies
### Erläuterung Fallbeispiel
*Quelle wie bei Einleitung https://oe1.orf.at/artikel/668067/Schwerpunkt-Kuenstliche-Intelligenz-Die-automatisierte-Gesellschaft*
Für diese Hausarbeit wird sich auf das anfangs erwähnte Arbeitsmarktservice in Österreich bezogen, welches nun hier ausführlicher erläutert wird:
An dieser Stelle soll stellvertretend das anfangs genannte Fallbeispiel des Arbeitsmarktservice (AMS) in Österreich detailierter erläutert werden:
Der AMS will ab 2021 einen eigenen Algorithmus einsetzen, der die Arbeitsmarktchancen von Arbeitssuchenden auf Basis von Statistiken vergangener Jahre bestimmt. Das System, welches den Algorithmus umsetzt (AMAS - Arbeitsmarktchancen-Assistenz-System), ordnet den Suchenden in 1 von 3 Gruppen ein, je nach Aufwand ihrer Integratiosnchancen. Ziel soll es sein, die Ressourcen des AMS optimal zu nutzen, in dem sich mehr auf die mittlere Gruppe fokussiert werden soll. Für diese Zuordnung verlangt der Algorithmus weitere Angaben. Um ein paar davon aufzuführen:
- Geschlecht, da Frauen automatisch einen Scoreabzug bekommen,
- Alter, da man zwischen 30 und 50 einen immer mehr steigenden Scoreabzu bekommt
- gesundheitliche Einschränkung, welche aber nur Die errechnete Score soll dabei als Zusatzfunktion bzw Zweitmeinung gesehen werden. Der AMS-Berater kann dann immernoch anders entscheiden, muss dies aber in einer Eingabemaske festhalten und begründen. [Quelle](https://epub.oeaw.ac.at/ita/ita-dossiers/ita-dossier052.pdf)
### Analyse Fallbeispiel
- Diskriminierung nach
- Geschlecht,
- Frauen sollen mehr unterstützt werden, daher wolle man sie in die mittlere Gruppe haben
- Alter
- mit steigendem Alter bis 50 Jahre gravierende Punktabzüge
- Herkunft
- "neue Ausländer" sind schwerer vermittelbar wegen angeblicher Sprachbarrieren
- Betreungspflicht
- wer betreut ist nicht so flexibel
- gesundheitliche Einschränkungen
- nicht jeder Beruf ist bei einer bestimmten Einschränkung mit Problemen verbunden!
*Die Würde eines Menschen ist unantastbar*
- zukünftige Ereignisse nicht aus vergangenen Beobachtungen ableitbar
- siehe Wirtschaftskrise, oder COVID-19-Pandemie
- Biographie eines Menschen wird eine Art Punktzahl runtergebrochen, unabhängig von den äußeren Umständen
- Resultat: Fokus Kundenkontakt mit persönlichem Förderbedarf verschiebt sich eher zu Arbeitsmarktchancen auf Basis einer Populationsberechnung
### Therorien oder Konzepte
Es gibt viele Institutionen, die sich mit ethischen Richtlinien auseinander gesetzt haben, wie folgende Abbildung zeigt

Stellvertretend für die Wissenschaft, welche nicht auf Profit aus ist, werden nun die Richtlinien von dem Alan Turing Institut erläutert und diese dann anschließend auf das Fallbeispiel angewendet.
Das Alan Turing Institut hat dafür ein Publikation veröffentlicht, in dem es dadrum geht, wie man Verantwortungsvolle AI Systeme im öffentlichem Sektor entwirft und implementiert.
Das alles baut dort auf 3 Säulen auf
1. SUM Values (Support, Underwrite, motivate) Respect, Connect, Care, Protect
Ziele: Bereitstellung eines zugänglichen Rahmens für die Berücksichtigung des moralischen Umfangs der sozialen und ethischen Auswirkungen Ihres Projekts und Festlegung genau definierter Kriterien zur Bewertung seiner ethischen Zulässigkeit
*mach dich über deinen moralischen Umfang bewusst, über die gesellschaftliche und ethische Auswirkung deines Projektes*
Im ersten Schritt soll man sich erstmal einmal Bewusst machen, wo das Projekt and gesellschaftliche und ethische Auswirkungen hat.
Dazu gehören Punkte wie, ob die Würde der einzelnen Personen respektiert werden, man offen und aufrichtig handelt, aber auch ob man sich für das Wohl aller einläßt und man die sozialen Werte und Gerechtigkeit des offentlichen Interesses schützt.
2. FAST Track Principles
Ziele: Sicherstellen, dass Ihre Projekte vorurteilsmindernd, nicht diskriminierend und fair sind, und das Vertrauen der Öffentlichkeit in die Fähigkeit Ihres Projekts, sichere und zuverlässige KI-Innovationen zu liefern, zu wahren.
Anschließend
3. PBG Framework (Process-Based-Governance)
Ziele: Einrichtung eines transparenten Entwurfs- und Implementierungsprozesses, der die Rechtfertigung sowohl Ihres KI-Projekts als auch Ihres Produkts gewährleistet und eine durchgängige Rechenschaftspflicht ermöglicht
### Analyse
### kritische Betrachtung der Diskussion
## Fazit
Ethik in der KI ist wichtig:
- um die Gesamtheit der Situation bewerten zu können
- Gesetze einhalten zu können (Würde unantastbar)
- also Alter
- Geschlecht
- Herkunft usw
*muss Ethik reprodzuierbar sein? bezüglich AMS aktuallität (die letzten 4 Jahre können zu unterschiedlichen Ergebnissen führen?!?*
## Literaturverzeichnis
- [Schwerpunkt "Künstliche Intelligenz" - Die automatisierte Gesellschaft hier AMS-Algorithmus](https://oe1.orf.at/artikel/668067/Schwerpunkt-Kuenstliche-Intelligenz-Die-automatisierte-Gesellschaft)
- [*nicht genutzt* AMS report](https://www.ams-forschungsnetzwerk.at/downloadpub/AMS_report_127.pdf)
- nicht genutzt Cake, Death, and Trolleys: Dilemmas as benchmarks of ethical decision-making ACM-Shibboth Libary
- nicht genutzt
- AIES 18 ACM-Shibboth Libary
- sowie AIES '20: Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society
- From Bad Users and Failed Uses to Responsible Technologies: A Call to Expand the AI Ethics Toolkit
gespeichert als 33756...pdf
- The intersection of ethics and AI
gespeichert als 33620...pdf
- [Übersicht Ethik & KI Dr Olga Levina](https://www.informatik-aktuell.de/betrieb/kuenstliche-intelligenz/kuenstliche-intelligenz-und-ethik.html)
- [*nicht genutzt* Amazon scraps secret AI recruiting tool that showed bias against women](https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G)
- [politische Guideline: Ethics guidelines for trustworthy AI von europäischer Commission](https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai)
- sieh auch [Deutsche Seite Europäische Kommission](https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/excellence-trust-artificial-intelligence_de)
- [Hertie Stiftung YT-Video von u.a. Regina Ammicht Quinn](https://www.ghst.de/ki-ethik/)
- [Bundesverband Digitaler Wissenschaften](https://www.bvdw.org/der-bvdw/gremien/digitale-ethik/ethik-bibliothek/#c8708)
- [YT-Scobel kurz und knapp](https://www.youtube.com/watch?v=oYc4p3o6IFA)
- [Technikethik auch gespeichert])(https://cloudflare-ipfs.com/ipfs/bafykbzaceaxoojqsjm2ykwwmdfveps724gm5wd3cygabnvfnhpy5poojpnyxm?filename=Prof.%20Dr.%20Marcus%20D%C3%BCwell%2C%20PD%20Dr.%20Christoph%20H%C3%BCbenthal%2C%20Dr.%20Micha%20H.%20Werner%20%28eds.%29%20-%20Handbuch%20Ethik-J.B.%20Metzler%20%282011%29.pdf)
- Hanbuch Ethik
## eidesstattliche Erklärung
https://www.haw-hamburg.de/hibs/ nicht VPN sondern Shibboleth Netzwerk
https://owncloud.gwdg.de/index.php/s/i26o3nM2rqGmNgl
https://epub.oeaw.ac.at/ita/ita-dossiers/ita-dossier052.pdf
Recherche Grauzone
libgen.is
sehr aktuelles Thema, da KI überall einzu erhält, auch im öffentlichem Dienst um Bereiche zu entlasten.
Sie sollen bis jetzt mit der Entscheidung eher helfen, die der Bearbeiter in den jeweilgen Fällen trifft, doch was ist, wenn der Berater aus Überarbeitung und Zeitnöten anfängt, das Ergebnis einer vermeintlich hochentwickleten Super-KI, die sehr objektiv sein wird (weil Computer) einfach zu übernehmen, gerade dann, wenn Abweichungen diesiger noch schriftlich festgehalten werden müssen?
*wenn der Berater anfängt blind zu vertrauen weil es meistens eh stimmt und sich die Arbeit zu erleichtern?*
*Nicht alle Werte lassen sich quantifizieren*
*Die Biographie eines Menschen wird runtergebrochen auf eine Zahl, und anhand dieser wird bestimmt, ob es der Mühe überhaupt lohnt*
*Der Mensch sieht nicht mehr, ob eine Maschine für einen entschieden hat, oder ob eine person das abgewogen hat*
*Die Würde des Menschen ist unantastbar -> persönliche Daten egal
KI versucht nun aber ein Muster zu erkennen und nutzt dabei alle möglichen Informationen (auch persönliche Daten)
daher bildet er das dann darauf ab und verstößt gegen ethische Grundsätze,
da er eine Personengruppe anhand der persönliche Daten in Schubladen steckt*
Warum KI-Ethik?
Das Gebiet der KI-Ethik hat sich größtenteils als Reaktion auf die verschiedenen individuellen und gesellschaftlichen Schäden herausgebildet, die durch Missbrauch, Missbrauch, schlechtes Design oder negative unbeabsichtigte Folgen von KI-Systemen verursacht werden können. Um Sie an der Bedeutung des Aufbaus einer robusten Kultur der KI-Ethik zu orientieren, finden Sie hier eine Tabelle, die einige der folgenreichsten Formen darstellt, die diese potenziellen Schäden annehmen können:
Mögliche Schäden durch KI-Systeme
Voreingenommenheit und Diskriminierung
Da datengesteuerte Technologien ihre Erkenntnisse aus den vorhandenen Strukturen und der Dynamik der von ihnen analysierten Gesellschaften gewinnen, können sie die in diesen Gesellschaften bestehenden Muster von Marginalisierung, Ungleichheit und Diskriminierung reproduzieren, verstärken und verstärken.
Da viele der Funktionen, Metriken und Analysestrukturen der Modelle, die Data Mining ermöglichen, von ihren Designern ausgewählt werden, können diese Technologien möglicherweise die Vorurteile und Vorurteile ihrer Designer replizieren.
Schließlich können die Datenproben, die zum Trainieren und Testen von algorithmischen Systemen verwendet werden, häufig nicht ausreichend repräsentativ für die Populationen sein, aus denen sie Schlussfolgerungen ziehen. Dies schafft echte Möglichkeiten für voreingenommene und diskriminierende Ergebnisse, da die Daten, die in die Systeme eingespeist werden, von Anfang an fehlerhaft sind.
Verweigerung der individuellen Autonomie, des Rückgriffs und der Rechte
Wenn Bürger Entscheidungen, Vorhersagen oder Klassifizierungen unterliegen, die von KI-Systemen erstellt wurden, können Situationen auftreten, in denen diese Personen nicht in der Lage sind, die für diese Ergebnisse verantwortlichen Parteien direkt zur Rechenschaft zu ziehen.
KI-Systeme automatisieren kognitive Funktionen, die bisher ausschließlich rechenschaftspflichtigen menschlichen Agenten zuzuschreiben waren. Dies kann die Bestimmung der Verantwortung in algorithmisch generierten Ergebnissen erschweren, da der komplexe und verteilte Charakter der Entwurfs-, Produktions- und Implementierungsprozesse von KI-Systemen es schwierig machen kann, verantwortliche Parteien zu bestimmen.
In Fällen von Verletzungen oder negativen Folgen kann eine solche Lücke in der Rechenschaftspflicht die Autonomie beeinträchtigen und die Rechte der betroffenen Personen verletzen.
Nicht transparente, unerklärliche oder nicht zu rechtfertigende Ergebnisse
Viele Modelle des maschinellen Lernens generieren ihre Ergebnisse, indem sie mit hochdimensionalen Korrelationen arbeiten, die über die Interpretationsfähigkeiten des menschlichen Denkens hinausgehen. In diesen Fällen bleibt die Begründung algorithmisch erzeugter Ergebnisse, die sich direkt auf Entscheidungsthemen auswirken, für diese Probanden undurchsichtig. Während in einigen Anwendungsfällen diese mangelnde Erklärbarkeit akzeptabel sein kann, kann in einigen Anwendungen, in denen die verarbeiteten Daten Spuren von Diskriminierung, Voreingenommenheit, Ungleichheit oder Ungerechtigkeit aufweisen können, die Undurchsichtigkeit des Modells zutiefst problematisch sein.
Eingriffe in die Privatsphäre
Datenschutzbedrohungen werden von KI-Systemen sowohl aufgrund ihrer Entwurfs- und Entwicklungsprozesse als auch aufgrund ihrer Bereitstellung gestellt. Da KI-Projekte in der Strukturierung und Verarbeitung von Daten verankert sind, wird die Entwicklung von KI-Technologien häufig die Verwendung personenbezogener Daten beinhalten. Diese Daten werden manchmal erfasst und extrahiert, ohne die ordnungsgemäße Zustimmung der betroffenen Person einzuholen, oder sie werden auf eine Weise behandelt, die die Offenlegung persönlicher Informationen offenbart (oder gefährdet).
Am Ende der Bereitstellung können KI-Systeme, die betroffene Personen ohne ihr Wissen oder ihre Zustimmung ansprechen, profilieren oder anstoßen, unter bestimmten Umständen als Verstoß gegen ihre Fähigkeit interpretiert werden, ein Privatleben zu führen, in dem sie die transformativen Auswirkungen der betroffenen Personen gezielt steuern können Technologien, die ihre Entwicklung beeinflussen und gestalten. Diese Art der Verletzung der Privatsphäre kann folglich das grundlegendere Recht einer Person beeinträchtigen, ihre Ziele und Lebenspläne ohne ungewollten Einfluss zu verfolgen.
Isolation und Auflösung der sozialen Verbindung
Die Fähigkeit von KI-Systemen, individuelle Erfahrungen zu kuratieren und digitale Dienste zu personalisieren, verspricht zwar eine erhebliche Verbesserung der Lebensdauer der Verbraucher und der Bereitstellung von Diensten, dieser Vorteil birgt jedoch auch potenzielle Risiken. Eine übermäßige Automatisierung könnte beispielsweise die Notwendigkeit einer Interaktion von Mensch zu Mensch verringern, während eine algorithmisch aktivierte Hyperpersonalisierung durch Begrenzung unserer Exposition gegenüber Weltanschauungen, die sich von unseren unterscheiden, die sozialen Beziehungen polarisieren könnte. Gut geordnete und zusammenhängende Gesellschaften bauen auf Vertrauensverhältnissen, Empathie und gegenseitigem Verständnis auf. Mit zunehmender Verbreitung von KI-Technologien ist es wichtig, dass diese Beziehungen erhalten bleiben.
Unzuverlässige, unsichere oder qualitativ schlechte Ergebnisse
Unverantwortliches Datenmanagement, nachlässige Entwurfs- und Produktionsprozesse und fragwürdige Bereitstellungspraktiken können auf ihre Weise zur Implementierung und Verteilung von KI-Systemen führen, die zu unzuverlässigen, unsicheren oder qualitativ minderwertigen Ergebnissen führen. Diese Ergebnisse können das Wohlbefinden einzelner Personen und das Gemeinwohl direkt schädigen. Sie können auch das Vertrauen der Öffentlichkeit in den verantwortungsvollen Umgang mit gesellschaftlich vorteilhaften KI-Technologien untergraben und schädliche Ineffizienzen verursachen, indem begrenzte öffentliche Ressourcen für ineffiziente oder sogar schädliche KI-Technologien eingesetzt werden.
*ATU findet das ethische KI auf mehreren Pfeiler beruht
Auf dem Weg zur ethisch KI
ATU -> vertrauenswürdig usw
wiederspiegelt sich in
EC -> vertrauensvoll, aber auch xy
*Auswahl der 2 Gremien erklären* EC -> politisch; AlanTuringU -> wissenschaftliche Institution
Evtl auch nur 1 Institut -> je *
https://epub.oeaw.ac.at/ita/ita-dossiers/ita-dossier052.pdf
*[vgl Quelle YT Scobel](https://www.youtube.com/watch?v=oYc4p3o6IFA)*