# Künstliche Intelligenz und Bibliotheken 11.10.2023 Michael Raunig --- # Inhalte und Ablauf * Vorstellung * Einführung * Handlungsfelder * Handlungsoptionen --- ## Zentrum für digitales Lehren und Lernen https://digitales.uni-graz.at/ Webseite [Lehren und Lernen mit KI](https://ki.uni-graz.at/) + [Orientierungsrahmen](https://static.uni-graz.at/fileadmin/_files/_project_sites/_digitalelehre/Orientierungsrahmen/KI-Orientierungsrahmen_230901.pdf) fnma-Projekte ["Von KI lernen, mit KI lehren"](https://www.fnma.at/projekte/vereinsprojekte/von-ki-lernen-mit-ki-lehren-die-zukunft-der-hochschulbildung) --- # Dies ist kein(e) * Prompting-Workshop → Workshopreihe [GPT und Prompt Engineering für die (digitalen) Geisteswissenschaften](https://chpollin.github.io/GM-DH/) * Einführung in Machine Learning * Tool-Parade oder Tutorial → [UB-Workshop](https://ub.uni-graz.at/de/beratung-kurse/kurse-veranstaltungen/literatursuche-3-spezialkurse/?esraSoftIdva=508137) * Ethik-Diskussion * Lösung? --- # Umfrage https://ars.uni-graz.at/p/52550946 --- ## Künstliche Intelligenz, # Kreative Intelligenz -- ein technischer bzw. anwendungsorientierter Überblick --- # KI-Anwendungen * Bilderkennung * Klassifikation (Labels, Sentiment etc.) * Sprachverarbeitung (NLP) * Textanalyse * Textoptimierung * Spracherkennung, Sprachausgabe * Roboter * Autonomes Fahren * Generierung von Inhalten --- # Technologien Machine Learning / Deep Learning Künstliche Neuronale Netze "subsymbolische KI" --- # diskriminative # und / vs. # generative KI --- # Generative KI generiert auf der Grundlage bestehender Daten neue Inhalte. * Erkennen von Mustern in Daten * Erlernen von Mustern aus Daten * Generieren von Daten gemäß gelernter Muster --- # Multimodalität Text ↔ Text (Large Language Models, LLMs) Text ↔ Bild, Text ↔ Audio, Text ↔ Video etc. (Large Multimodal Models) --- # Sprachmodelle * Text-Vervollständiger * "Stochastische Papageien" ([Bender et al., 2021](https://doi.org/10.1145/3442188.3445922)) * Kreativität? Remix? * Urheberschaft? Autorschaft? Rechte mit Bezug auf Trainingsdaten? * ~~Plagiarismus~~ * Ghostwriting --- # [ChatGPT](https://chat.openai.com/) * Chatbot / Produkt / Service von OpenAI * im November 2022 veröffentlicht * "free research preview" * Freemium-Preismodell * statische Datenbasis * Trainiert auf menschenähnlichen Dialog bzw. Ausführung von Anweisungen ("Chatbot") * Sprachmodelle GPT-3.5 and GPT-4 * GPT = Generative Pre-trained Transformer * neu: [Sehen, Hören, Sprechen](https://openai.com/blog/chatgpt-can-now-see-hear-and-speak) --- # Sprachmodelle und Chatbots * OpenAI: [ChatGPT](https://chat.openai.com/), GPT-n Modellfamilie * Microsoft: [Bing](https://www.bing.com/) (GPT-4) * Anthropic: [Claude](https://www.anthropic.com/product) * Google: [Bard](https://bard.google.com/), Sprachmodelle LaMDA und PaLM * Meta: Galactica, Modellfamilie [LLaMA](https://ai.meta.com/llama/) * [Aleph Alpha](https://www.aleph-alpha.com/): Eurpäische KI, Sprachmdell Luminous * LAION: [Open Assistant](https://open-assistant.io/) (Open Surce, open & crowd-surced training data) --- # The real open AI [Hugging Face](https://huggingface.co/models) (AI model community) [Chatbot Arena](https://chat.lmsys.org/), [Open LLM Leaderboard](https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard) --- # Einsatzgebiete für Sprachmodelle Ideen, Listen etc. generieren Texte zusammenfassen umschreiben (Schlagwörter) extrahieren übersetzen ---- verbessern, vereinfachen vorschlagen, brainstormen belegen weiterschreiben erklären Aktionselemente / To-dos finden (action items) Stil ändern ---- Stimmung erkennen klassifizieren (Kategorien zuweisen) Fragen beantworten Fragen generieren "Datentyp" umwandeln (Liste, Tabelle, CSV etc.) Dialog führen Code generieren --- # Probleme * Sprachmodelle, keine Wissensmodelle * generieren teilweise Fiktionen / Halluzinationen * Datenbasis statisch und veraltet (GPT-Familie: bis September 2021) * problematische Inhalte durch vorbelastete Datenbasis * Fehler beim Schlussfolgern und Rechnen ---- # Probleme * akzeptiert falsche Prämissen * beschränktes "Kurzzeitgedächtnis" * Prompting, Kontext-Fenster (4096 Tokens / ~3200 Wörter bei GPT-4) * Intransparenz * Detektion / Erkennung von KI-Generiertem (≠ Plagiatserkennung) --- # Unterscheidungen Sprachmodell (Foundation Model) Interface ([Chatbot](https://chat.openai.com/), [Web UI](https://platform.openai.com/playground), [API](https://platform.openai.com/docs/api-reference/)) Lokal betriebene Modelle (z. B. [GPT4All](https://gpt4all.io), [PocketLLM](https://www.thirdai.com/pocketllm/)) vs. "Cloud"-Services Spezielle KI-Dienste vs. integrierte Dienste und Features (Copilot, Plug-in etc.) (z. B. in Microsoft Office 365, Github etc.) --- # KI-Toolsammlungen [Magic Tools](https://www.magictools.online) [AI Collection](https://github.com/ai-collection/ai-collection) auf Github [Futurepedia](https://www.futurepedia.io/) [AI Tools Directory](https://aitoolsdirectory.com/) [There's an AI for that](https://theresanaiforthat.com/) --- # Spezialisierte KI-Anwendungen (Beispiele) an das Internet angeschlssen (Suchmaschine) [You.com](https://you.com/), [Phind](https://www.phind.com/), [Perplexity](https://www.perplexity.ai/) auf wissenschaftlichen Publikatinen und Erkenntnissen basierend [Consensus](https://www.consensus.app/), [Elicit](https://elicit.org/), [SciSpace](https://typeset.io/) Schreibassistenten [DeepL Write](https://www.deepl.com/write), [Jenni](https://jenni.ai/), [QuillBot](https://quillbot.com/) u.v.a.m. --- # Sprachmodelle... ## flexibler nutzbar ## individueller ## smarter # ...machen --- ## Modell trainieren vs. ## Finetuning vs. ## Prompt Engineering --- # Prompts unterschiedliche Prompt-Templates für verschiedene Modelle unterschiedliche Prompt-Präferenzen Prompt-Sammlungen und Tutorials "Kontext, Kontext, Kontext" --- # Chain of thought * CoT-Prompting (explizite Aufforderung) * Verfeinerung ([Besta et al., 2023](https://arxiv.org/abs/2308.09687)) * Chain of Thought * Tree of Thoughts * Graph of Thoughts * automatisierte Pipeline --- ## Modelle in Zusammenhänge einbetten (orchestrieren) * Flows/Chains mit [LangChain](https://www.langchain.com/) (siehe [Langflow-Demo](https://huggingface.co/spaces/Logspace/Langflow)) * Daten laden mit [LlamaIndex](https://github.com/run-llama/llama_index) (siehe [LLama Hub](https://llamahub.ai/)) --- # Chains und Agents * Kontinuum zwischen statischen Chains und autonomen Agents * Multi-Agents zur Illustration: [AutoGen-Beispiel-Notebooks](https://microsoft.github.io/autogen/docs/Examples/AutoGen-AgentChat) --- # Retrieval Augmented Generation (RAG) Beispiel: [ChatPDF](https://www.chatpdf.com/) Information Retrieval + Language Generation Illlustration und Erläuterung: z. B. [Bratanic, 2023](https://neo4j.com/developer-blog/fine-tuning-retrieval-augmented-generation/) --- ## verwandte / affine / ergänzende Technologien * Graphen / Graph-Datenbanken * Semantische Suche * Embeddings * kalkulierbare Repräsentation eines (z. B. sprachlichen) Elements (Vektor) * Ähnlichkeit * Vektor-Datenbanken * Text Mining, Data Science * ... --- # Word rap * LLMOps, MLOps, ModelOps * Token * Parameter (model weights) * Jailbreak --- # Zugänge --- # SAMR-Modell Substitution Augmentation Modification Redefinition Puentedura, 2006 --- # Workshop ---- ## Aufgabenstellung * Handlungsfelder für den KI-Einsatz sammeln https://pad.uni-graz.at/p/ubki2310 ---- ## Aufgabenstellung Suchen Sie eine KI-Anwendung, die Sie einsetzbar/ nachbauenswert für Bibliotheken finden! ---- ## Reflexion Positionierung einer Universitätsbibliothek? [Cordell, 2020](https://labs.loc.gov/static/labs/work/reports/Cordell-LOC-ML-report.pdf) <!-- .element: class="fragment" data-fragment-index="1" --> --- # Links * [Zertifikatskurs in Wildau](https://www.wit-wildau.de/zertifikatsprogramme/kuenstliche-intelligenz-an-bibliotheken/) * [DNB-Projekt Automatisches Erschließungssystem](https://www.dnb.de/DE/Professionell/ProjekteKooperationen/Projekte/KI/ki_node.html) * [DNB-Netzwerk maschinelle Verfahren in der Erschliessung](https://wiki.dnb.de/display/FNMVE/) * ZBW Mediatalk zu KI in wissenschaftlichen Bibliotheken: [Teil 1](https://www.zbw-mediatalk.eu/de/2022/08/ki-in-wissenschaftlichen-bibliotheken-teil-1-handlungsfelder-grosse-player-und-die-automatisierung-der-erschliessung/), [2](https://www.zbw-mediatalk.eu/de/2022/08/ki-in-wissenschaftlichen-bibliotheken-teil-2-spannende-projekte-die-zukunft-von-chatbots-und-diskriminierung-durch-ki/) und [3](https://www.zbw-mediatalk.eu/de/2022/08/ki-in-wissenschaftlichen-bibliotheken-teil-3-voraussetzungen-und-bedingungen-fuer-den-erfolgreichen-einsatz/) * [vBIB23](https://www.vbib.net/) --- # Kontakt Michael Raunig Zentrum für digitales Lehren und Lernen Universität Graz Liebiggasse 9/II, 8010 Graz Tel.: + 43 (0)316 / 380-1049 michael.raunig@uni-graz.at
{"lang":"de-AT","title":"Künstliche Intelligenz und Bibliotheken","description":"Unterlagen zum Workshop am 11.10.2023","contributors":"[{\"id\":\"62caf551-e155-4087-a588-8e6153ae03c9\",\"add\":20222,\"del\":11228}]"}
    204 views