--- title: "探索大型語言模型的實務應用:Python 在 RAG 知識管理、LLM 服務化的作法 - 劉育維" tags: PyConTW2024, 2024-organize, 2024-共筆 --- # 探索大型語言模型的實務應用:Python 在 RAG 知識管理、LLM 服務化的作法 - 劉育維 {%hackmd NY3XkI1xQ1C9TrHQhoy9Vw %} <iframe src=https://app.sli.do/event/1opSMuiFKHuWDhLddpdhS4 height=450 width=100%></iframe> > Collaborative writing start from below > 從這裡開始共筆 GitHub、Colab Link: - https://github.com/LiuYuWei/pycon-tutorial-2024 ChatGPT 指令大全 - https://www.explainthis.io/zh-hant/chatgpt Google AI Studio - https://ai.google.dev/aistudio?hl=zh-tw ## Q&A ### 1. 請問 fine tune,RAG ,RLHF, prompt engineering 是否有上下游的關係 算, prompt engineering -> RAG -> (RLHF) -> fine tune 須考量成本 or POC ### 2. 其中ollama實作chat bot的部分感到很有趣,想詢問若用這種方法來做類似客服機器人、LineBot、DiscordBot可能會有什麼挑戰嗎?會不會因為出現一些嚴重的問題(像是突然冒出意想不到的答案或回應XD?) 最重要的是讓對的人去問對的知識 可以使用 tag 來控制問題權限 ### 3. 想請問 Fine-tune LLM 模型要怎麼避免幻覺的問題產生?還是 fine-tune 過後仍舊要接 RAG 的架構才有辦法避免? 如果終究要接 RAG 架構的話,那我們前面 Fine-tune 的意義為何? 難以避免幻覺, 還是得透過 prompt engineering 來提高回答正確的機率 ### 4. 請問經驗上, RAG retrieval 的 similarity score 門檻值多少會有參考價值? 還是會依據不同的演算法有所差異? 講者習慣不設門檻, 因為 LLM 會自己過濾不相干的 ### 5. 想問一下,Benchmark 跑分八十可以過老闆的檻的依據是怎麼得到的? 會建議老闆使用跟大家一樣的門檻 ### 6. 如果prompt 和RAG 的效果都不好時,會選擇開始fine tune 還是會想辦法研究rag如embedding 之類的方向 會先考慮RAG, garbage in garbage out Below is the part that speaker updated the talk/tutorial after speech 講者於演講後有更新或勘誤投影片的部份
×
Sign in
Email
Password
Forgot password
or
By clicking below, you agree to our
terms of service
.
Sign in via Facebook
Sign in via Twitter
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
New to HackMD?
Sign up