# Künstliche Intelligenz und Bibliotheken
11.10.2023
Michael Raunig
---
# Inhalte und Ablauf
* Vorstellung
* Einführung
* Handlungsfelder
* Handlungsoptionen
---
## Zentrum für digitales Lehren und Lernen
https://digitales.uni-graz.at/
Webseite [Lehren und Lernen mit KI](https://ki.uni-graz.at/) +
[Orientierungsrahmen](https://static.uni-graz.at/fileadmin/_files/_project_sites/_digitalelehre/Orientierungsrahmen/KI-Orientierungsrahmen_230901.pdf)
fnma-Projekte
["Von KI lernen, mit KI lehren"](https://www.fnma.at/projekte/vereinsprojekte/von-ki-lernen-mit-ki-lehren-die-zukunft-der-hochschulbildung)
---
# Dies ist kein(e)
* Prompting-Workshop
→ Workshopreihe [GPT und Prompt Engineering für die (digitalen) Geisteswissenschaften](https://chpollin.github.io/GM-DH/)
* Einführung in Machine Learning
* Tool-Parade oder Tutorial
→ [UB-Workshop](https://ub.uni-graz.at/de/beratung-kurse/kurse-veranstaltungen/literatursuche-3-spezialkurse/?esraSoftIdva=508137)
* Ethik-Diskussion
* Lösung?
---
# Umfrage
https://ars.uni-graz.at/p/52550946
---
## Künstliche Intelligenz,
# Kreative Intelligenz
-- ein technischer bzw. anwendungsorientierter Überblick
---
# KI-Anwendungen
* Bilderkennung
* Klassifikation (Labels, Sentiment etc.)
* Sprachverarbeitung (NLP)
* Textanalyse
* Textoptimierung
* Spracherkennung, Sprachausgabe
* Roboter
* Autonomes Fahren
* Generierung von Inhalten
---
# Technologien
Machine Learning / Deep Learning
Künstliche Neuronale Netze
"subsymbolische KI"
---
# diskriminative
# und / vs.
# generative KI
---
# Generative KI
generiert auf der Grundlage bestehender Daten neue Inhalte.
* Erkennen von Mustern in Daten
* Erlernen von Mustern aus Daten
* Generieren von Daten gemäß gelernter Muster
---
# Multimodalität
Text ↔ Text
(Large Language Models, LLMs)
Text ↔ Bild,
Text ↔ Audio,
Text ↔ Video etc.
(Large Multimodal Models)
---
# Sprachmodelle
* Text-Vervollständiger
* "Stochastische Papageien" ([Bender et al., 2021](https://doi.org/10.1145/3442188.3445922))
* Kreativität? Remix?
* Urheberschaft? Autorschaft? Rechte mit Bezug auf Trainingsdaten?
* ~~Plagiarismus~~
* Ghostwriting
---
# [ChatGPT](https://chat.openai.com/)
* Chatbot / Produkt / Service von OpenAI
* im November 2022 veröffentlicht
* "free research preview"
* Freemium-Preismodell
* statische Datenbasis
* Trainiert auf menschenähnlichen Dialog bzw. Ausführung von Anweisungen ("Chatbot")
* Sprachmodelle GPT-3.5 and GPT-4
* GPT = Generative Pre-trained Transformer
* neu: [Sehen, Hören, Sprechen](https://openai.com/blog/chatgpt-can-now-see-hear-and-speak)
---
# Sprachmodelle und Chatbots
* OpenAI: [ChatGPT](https://chat.openai.com/), GPT-n Modellfamilie
* Microsoft: [Bing](https://www.bing.com/) (GPT-4)
* Anthropic: [Claude](https://www.anthropic.com/product)
* Google: [Bard](https://bard.google.com/), Sprachmodelle LaMDA und PaLM
* Meta: Galactica, Modellfamilie [LLaMA](https://ai.meta.com/llama/)
* [Aleph Alpha](https://www.aleph-alpha.com/): Eurpäische KI, Sprachmdell Luminous
* LAION: [Open Assistant](https://open-assistant.io/) (Open Surce, open & crowd-surced training data)
---
# The real open AI
[Hugging Face](https://huggingface.co/models) (AI model community)
[Chatbot Arena](https://chat.lmsys.org/), [Open LLM Leaderboard](https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard)
---
# Einsatzgebiete für Sprachmodelle
Ideen, Listen etc. generieren
Texte zusammenfassen
umschreiben
(Schlagwörter) extrahieren
übersetzen
----
verbessern, vereinfachen
vorschlagen, brainstormen
belegen
weiterschreiben
erklären
Aktionselemente / To-dos finden (action items)
Stil ändern
----
Stimmung erkennen
klassifizieren (Kategorien zuweisen)
Fragen beantworten
Fragen generieren
"Datentyp" umwandeln (Liste, Tabelle, CSV etc.)
Dialog führen
Code generieren
---
# Probleme
* Sprachmodelle, keine Wissensmodelle
* generieren teilweise Fiktionen / Halluzinationen
* Datenbasis statisch und veraltet (GPT-Familie: bis September 2021)
* problematische Inhalte durch vorbelastete Datenbasis
* Fehler beim Schlussfolgern und Rechnen
----
# Probleme
* akzeptiert falsche Prämissen
* beschränktes "Kurzzeitgedächtnis"
* Prompting, Kontext-Fenster
(4096 Tokens / ~3200 Wörter bei GPT-4)
* Intransparenz
* Detektion / Erkennung von KI-Generiertem
(≠ Plagiatserkennung)
---
# Unterscheidungen
Sprachmodell (Foundation Model)
Interface ([Chatbot](https://chat.openai.com/), [Web UI](https://platform.openai.com/playground), [API](https://platform.openai.com/docs/api-reference/))
Lokal betriebene Modelle (z. B. [GPT4All](https://gpt4all.io), [PocketLLM](https://www.thirdai.com/pocketllm/)) vs. "Cloud"-Services
Spezielle KI-Dienste vs. integrierte Dienste und Features (Copilot, Plug-in etc.)
(z. B. in Microsoft Office 365, Github etc.)
---
# KI-Toolsammlungen
[Magic Tools](https://www.magictools.online)
[AI Collection](https://github.com/ai-collection/ai-collection) auf Github
[Futurepedia](https://www.futurepedia.io/)
[AI Tools Directory](https://aitoolsdirectory.com/)
[There's an AI for that](https://theresanaiforthat.com/)
---
# Spezialisierte KI-Anwendungen (Beispiele)
an das Internet angeschlssen (Suchmaschine)
[You.com](https://you.com/), [Phind](https://www.phind.com/), [Perplexity](https://www.perplexity.ai/)
auf wissenschaftlichen Publikatinen und Erkenntnissen basierend
[Consensus](https://www.consensus.app/), [Elicit](https://elicit.org/), [SciSpace](https://typeset.io/)
Schreibassistenten
[DeepL Write](https://www.deepl.com/write), [Jenni](https://jenni.ai/), [QuillBot](https://quillbot.com/)
u.v.a.m.
---
# Sprachmodelle...
## flexibler nutzbar
## individueller
## smarter
# ...machen
---
## Modell trainieren
vs.
## Finetuning
vs.
## Prompt Engineering
---
# Prompts
unterschiedliche Prompt-Templates für verschiedene Modelle
unterschiedliche Prompt-Präferenzen
Prompt-Sammlungen und Tutorials
"Kontext, Kontext, Kontext"
---
# Chain of thought
* CoT-Prompting (explizite Aufforderung)
* Verfeinerung ([Besta et al., 2023](https://arxiv.org/abs/2308.09687))
* Chain of Thought
* Tree of Thoughts
* Graph of Thoughts
* automatisierte Pipeline
---
## Modelle in Zusammenhänge einbetten (orchestrieren)
* Flows/Chains mit [LangChain](https://www.langchain.com/)
(siehe [Langflow-Demo](https://huggingface.co/spaces/Logspace/Langflow))
* Daten laden mit [LlamaIndex](https://github.com/run-llama/llama_index)
(siehe [LLama Hub](https://llamahub.ai/))
---
# Chains und Agents
* Kontinuum zwischen statischen Chains und autonomen Agents
* Multi-Agents zur Illustration:
[AutoGen-Beispiel-Notebooks](https://microsoft.github.io/autogen/docs/Examples/AutoGen-AgentChat)
---
# Retrieval Augmented Generation (RAG)
Beispiel: [ChatPDF](https://www.chatpdf.com/)
Information Retrieval + Language Generation
Illlustration und Erläuterung:
z. B. [Bratanic, 2023](https://neo4j.com/developer-blog/fine-tuning-retrieval-augmented-generation/)
---
## verwandte / affine / ergänzende Technologien
* Graphen / Graph-Datenbanken
* Semantische Suche
* Embeddings
* kalkulierbare Repräsentation eines (z. B. sprachlichen) Elements (Vektor)
* Ähnlichkeit
* Vektor-Datenbanken
* Text Mining, Data Science
* ...
---
# Word rap
* LLMOps, MLOps, ModelOps
* Token
* Parameter (model weights)
* Jailbreak
---
# Zugänge
---
# SAMR-Modell
Substitution
Augmentation
Modification
Redefinition
Puentedura, 2006
---
# Workshop
----
## Aufgabenstellung
* Handlungsfelder für den KI-Einsatz sammeln
https://pad.uni-graz.at/p/ubki2310
----
## Aufgabenstellung
Suchen Sie eine KI-Anwendung, die Sie einsetzbar/ nachbauenswert für Bibliotheken finden!
----
## Reflexion
Positionierung einer Universitätsbibliothek?
[Cordell, 2020](https://labs.loc.gov/static/labs/work/reports/Cordell-LOC-ML-report.pdf)
<!-- .element: class="fragment" data-fragment-index="1" -->
---
# Links
* [Zertifikatskurs in Wildau](https://www.wit-wildau.de/zertifikatsprogramme/kuenstliche-intelligenz-an-bibliotheken/)
* [DNB-Projekt Automatisches Erschließungssystem](https://www.dnb.de/DE/Professionell/ProjekteKooperationen/Projekte/KI/ki_node.html)
* [DNB-Netzwerk maschinelle Verfahren in der Erschliessung](https://wiki.dnb.de/display/FNMVE/)
* ZBW Mediatalk zu KI in wissenschaftlichen Bibliotheken: [Teil 1](https://www.zbw-mediatalk.eu/de/2022/08/ki-in-wissenschaftlichen-bibliotheken-teil-1-handlungsfelder-grosse-player-und-die-automatisierung-der-erschliessung/), [2](https://www.zbw-mediatalk.eu/de/2022/08/ki-in-wissenschaftlichen-bibliotheken-teil-2-spannende-projekte-die-zukunft-von-chatbots-und-diskriminierung-durch-ki/) und [3](https://www.zbw-mediatalk.eu/de/2022/08/ki-in-wissenschaftlichen-bibliotheken-teil-3-voraussetzungen-und-bedingungen-fuer-den-erfolgreichen-einsatz/)
* [vBIB23](https://www.vbib.net/)
---
# Kontakt
Michael Raunig
Zentrum für digitales Lehren und Lernen
Universität Graz
Liebiggasse 9/II, 8010 Graz
Tel.: + 43 (0)316 / 380-1049
michael.raunig@uni-graz.at
{"lang":"de-AT","title":"Künstliche Intelligenz und Bibliotheken","description":"Unterlagen zum Workshop am 11.10.2023","contributors":"[{\"id\":\"62caf551-e155-4087-a588-8e6153ae03c9\",\"add\":20222,\"del\":11228}]"}