--- #該區塊是此page style設定,更動時注意! slideOptions: slideNumber: true #顯示頁碼 type: slide #投影片模式 tags: LLM,LangChain,TAIA,HIT #設定標籤 disqus: hackmd #允許讀者在文件下方留下評論 --- 大型語言模型實作 讀書會-第四組 === ## 報告主題:[LangChain for LLM Application Development](https://learn.deeplearning.ai/langchain/lesson/1/introduction) ## 報告日期: 113/1/16 #### 組長: 陳志傑 #### 副組長: 羅子嘉、王翊樺、張紘嘉 #### 副組長:胡雅涵、陳昱瑋、邱之宇、余若榛 --- ### 定期會議(TBD):每周四 2100-2130 **小組開會簽到** 1. 12/28 簽到: 志傑*/之宇/紘嘉/翊樺/若榛/雅涵/惠如 2. 01/04 簽到: 志傑/翊樺/紘嘉/昱瑋/子嘉*/惠如/若榛/之宇/永鵬/雅涵 3. 01/11 簽到: 志傑/紘嘉/惠如/昱瑋/翊樺/永鵬/雅涵/子嘉 每周四副組長及組員讀書心得報告 --- ### 簡報小組 #### 上課10天前看完影片及練習,前5天提供問題及補充資料給報告組 1. 構建ChatGPT應用系統=> Introduction (+紅+) (Kevin) 2. 直接向框架創建者 Harrison Chase 學習 LangChain=> Model Prompts and parsers (Jack) (鄭惠如) 3. 將LLM應用於專有數據以建立個人助理和專業聊天機器人=> Question and Answer 王翊樺 (Kevin) 4. 使用代理、鍊式呼叫和記憶體來擴展您對 LLM 的使用=> Memory /Agents 邱之宇 (王珊珊) --- ### 組員清單 > | | ChineseName | LineName | Partender | 心得報告 | > | ------ | ----------- | --------- | --------- | --- | > | 組長 | 陳志傑 | Jack | 鄭惠如 |12/26| > | 副組長 | 羅子嘉 | Kevin Luo | 陳麒仲 | 1/4 | > | 副組長 | 王翊樺 | Hua | 林晏亘 | 1/11 | > | 副組長 | 張紘嘉 | +紅+ | 林俊佑 | 1/18 | > | 副組長 | 胡雅涵 | 雅涵 | 陳沛承 | 1/25| > | 副組長 | 陳昱瑋 | Raymond | 侯楷言 | 2/1| > | 副組長 | 邱之宇 | Cosmo | 王珊珊 | 2/8| > | 副組長 | 余若榛 | Cheris | 胡雅涵 | 2/15| > | 組員 | 陳麒仲 | 仲 | 蘇子仁 | | > | 組員 | 林晏亘 | 林晏亘 | | | > | 組員 | 胡雅涵 | 雅涵 | | | > | 組員 | 王珊珊 | Crystal33 | | | > | 組員 | 侯楷言 | 侯楷言 | | | > | 組員 | 林俊佑 | 林俊佑 | | | > | 組員 | 鄭惠如 | Viola | | | > | 組員 | 陳劭晏 | Yan | | | --- ## 12/19 ### 活動宣導事項 - [讀書會說明](https://hackmd.io/s-ywY45mRICfWhZDgWB4PQ?both#/) - [八周課程內容簡介](https://gamma.app/docs/-vsoxoexxs6v3qzp?mode=doc) - [進修交流委員會簡介](https://docs.google.com/ㄦpresentation/d/13HtB5t-xaWUwxpNIv6LMJngSkrZ1vzJa/edit#slide=id.p22) --- ## 個人學習心得與觀點 #### 其他筆記連結-[簡報](https://www.canva.com/design/DAF3hiWx2jQ/fbp1gq-USHpBQDBu7kgfIQ/edit?utm_content=DAF3hiWx2jQ&utm_campaign=designshare&utm_medium=link2&utm_source=sharebutton) - [1228課程-志傑的預習筆記](https://hackmd.io/@2mTdQRyeS2K6yC1CpWBIiQ/ByQJRGdUp) - [0104課程-子嘉的預習筆記](https://hackmd.io/@ooNcrQ9oR9iZp38QDGlPLg/BJHKosjPa) - [0111課程-紘嘉的預習筆記](https://hackmd.io/@wQJtnj7sQEagWAEtO8foqw/hongallm_preview1) --- ### 補充資料+QA #### 試算表中的提問內容 (對第四組的提問) 第7組 1. 如果我有壹個步驟不固定的任務,應該用甚麼樣的Chain比較好? 2. 如果有N個tool並且功能類似,一個多參數且複雜的還是多個功能相對單一的tool好? 3. 如何進行類似 CI/CD Operations (ML Ops)? 4. LangChain 框架輸入文件有無個別著作時間的資訊前後關聯性? 例如涉及創意研發或專利 Prior Art 可否提示 或 應用開發可行方向. 5. K是不是=memory space? 第8組 6. 想問有關於embedding和chunk 的問題, 他要如何給予chunk數值到embedding,並且是如何預估並給予分數。 7. 他是基於哪一種演算法說這個數值相近呢?另外他取n個相近的值要多相近才算相似呢? 8. 為什麼在Router chain的過程中,destination chain 和defult chain 是要拿來做甚麼? 第4組 9-1. 在此課程的評估方法中, 提到的 QA 產生器方法與使用者提問的 langchain LLM 是相同的GPT3.5, 這似乎有球員兼裁判的問題, 是否 QA 產生器應該使用不同、並且效能更強的模型呢(如GPT4)? 9-2. 承上問題, 這樣的想法中, 如果沒有更強的模型可以做驗證, 那還能有什麼方法? 人工檢驗嗎? 10. agent的判斷與否似乎只能取決於LLM的能力,如果LLM能力不足、或是已知有判斷錯誤的問題,是否有方法可以改進這些錯誤? --- #### 李弘毅老師-80分鐘快速了解大型語言模型 See -> [80分鐘快速了解大型語言模型](https://youtu.be/wG8-IUtqu-s?si=zixD9AzNaDI1vWaC) #### Intro to Large Language Models See -> [Intro to Large Language Models](https://youtu.be/zjkBMFhNj_g?si=lMQVupjunafqtFVa) --- ## 常用連結 - [學習記錄表](https://docs.google.com/spreadsheets/d/1b5frS7nqzr22xfA3kMQQ49EbchN6t3r5/edit#gid=1878043224) - [Discord頻道](https://discord.gg/yv75kHGC) - [Canva簡報](https://www.canva.com/design/DAF3hiWx2jQ/fbp1gq-USHpBQDBu7kgfIQ/edit?utm_content=DAF3hiWx2jQ&utm_campaign=designshare&utm_medium=link2&utm_source=sharebutton) --- ## 參考文獻 1. [Prompt Inhect Intro to Large Language Models](https://www.youtube.com/watch?v=zjkBMFhNj_g) 2. [Getting Started with Gemini Pro on Google AI Studio](https://www.youtube.com/watch?v=HN96QDFBD0g) 3. [使用 AutoGPTQ 和 transformers 让大语言模型更轻量化](https://huggingface.co/blog/zh/gptq-integration) 4. [Getting Started with Gemini Pro on Google AI Studio](https://www.youtube.com/watch?v=HN96QDFBD0g) --- :::info ## Thanks for Listening :::