### [AI / ML領域相關學習筆記入口頁面](https://hackmd.io/@YungHuiHsu/BySsb5dfp) ### [Deeplearning.ai GenAI/LLM系列課程筆記](https://learn.deeplearning.ai/) #### [Large Language Models with Semantic Search。大型語言模型與語義搜索 ](https://hackmd.io/@YungHuiHsu/rku-vjhZT) #### [LangChain for LLM Application Development](https://hackmd.io/1r4pzdfFRwOIRrhtF9iFKQ) #### [Finetuning Large Language Models。微調大型語言模型](https://hackmd.io/@YungHuiHsu/HJ6AT8XG6) - [為何要微調(Why finetune)](https://hackmd.io/@YungHuiHsu/HJ6AT8XG6) - [微調的適用範圍(Where finetuning fits in)](https://hackmd.io/@YungHuiHsu/Bkfyyh7zp) - [指令調整(Instruction-tuning)](https://hackmd.io/@YungHuiHsu/B18Hg2XMa) - [資料準備(Data preparation)](https://hackmd.io/@YungHuiHsu/ByR-G24GT) - [訓練過程(Training process)](https://hackmd.io/@YungHuiHsu/rJP6F2Vf6) - [評估與迭代(Evaluation and iteration)](https://hackmd.io/@YungHuiHsu/ryfM524Ga) - [考量與開始(Considerations on getting started now)](https://hackmd.io/@YungHuiHsu/r1KGob8fT) --- # Finetuning Large Language Models ## 課程概要 * 微調(Fine-tuning)是將現成的大型語言模型(pre-trained large language model (LLM))如ChatGPT客製化到自己的資料和任務上的一種技術,比只利用提示(prompting)更進一步。 * 雖然提示(prompting)可指引語言模型,但微調可以讓模型更貼合資料定義的專門任務,包括調整語調和風格。 * 微調使您能藉由自己的資料專門化既有的語言模型,無需大量資料和運算資源從零訓練語言模型。 * 本課程將涵蓋微調的定義、適用情境、與提示及檢索的差異、ChatGPT所用的指令微調、以及用Python親手微調語言模型的實作。 * 必備知識為Python和基礎深度學習概念。目標是易學的語言模型微調入門。 ### Course Overview * Why finetune * Where finetuning fits in * Instruction finetuning * Data preparation * Training Process * Evaluation and Iteration * Considerations on getting started now * Conclusion ### 主要講師與課程設計 * Sharon Zhou。課程講師。Lamini。講解課程內容 * Nina Wei。課程設計。Lamini。課程設計 - Lamini Lamini 的核心產品是一個開源的語言理解平台,可以讓使用者透過微調的方式,將現有的語言模型客製化為解決特定業務任務的 AI 助理。 ![](https://hackmd.io/_uploads/B1qdmwXG6.png =500x) ## [為何要微調(Why finetune)](https://learn.deeplearning.ai/finetuning-large-language-models/lesson/1/introduction) ### 課程概覽 * Fine-tuning 可以將一般用途的模型如 GPT-3 特化為特定用例,如將 GPT-4 轉換為程式碼完成的 GitHub Copilot。這有點像將全科醫生變成專科醫生 * Fine-tuning 允許模型從遠超過提示所能容納的大量資料中學習。這有助於更正不正確的資訊和「幻覺」(hallucinations) * Prompt engineering 適用於快速原型製作,而 fine-tuning 更適合生產系統。 * 自定義 LLM fine-tuning 的好處包括更好的效能、隱私、成本控制和調節回應的能力 * 課程展示了一個非 fine-tuned LLAMA 模型對提示的糟糕回應,與 fine-tuned LLAMAChat 模型給出的更好回應形成對比 * 課程詳細地講解如何進行 fine-tuning ### What is finetuning? ![](https://hackmd.io/_uploads/Bk6LlwQG6.png =400x) ### What does finetuning do for the model? - Fine-tuning 使您可以將遠超過提示所能容納的更多資料輸入模型中 - Fine-tuning 使模型可以從資料學習,而不僅僅是透過提示獲得資料的存取權 - 案例1:醫療診斷 - 輸入提示:[皮膚刺激 發紅 瘙癢] - 左圖:基礎模型 - =>得到很簡單、模型內既有知識的回答:[可能是痤瘡] - 右圖:微調模型 <- 使用皮膚科資料微調訓練 - => 從皮膚科文獻資料得到進一步診斷:[你混合患有非炎症性粉刺和炎症性丘疹膿皰痤瘡] ![](https://hackmd.io/_uploads/HkhnFvmGa.png =400x) - 案例2:對話機器人 - 輸入提示:[你叫什么名字] - 左圖:基礎模型 - =>反問但沒有回答 - 右圖:微調模型 <- 使用個人資料微調訓練 - => 正確回答姓名 ![](https://hackmd.io/_uploads/Hy2Rovmfp.png) * 引導模型輸出更一致的結果Steers the model to more consistent outputs * 減少幻覺 Reduces hallucinations * 根據特定用例定製模型 Customizes the model to a specific use case * 過程類似於模型早期的訓練Process is similar to the model's earlier training ### Prompt Engineering vs. Finetuning ![](https://hackmd.io/_uploads/BJxrKtmfa.png =500x) - Prompt Engineering: - 優點: * 可以快速上手,不需要資料就可以開始使用 * 前期成本較低 * 不需要技術知識 * 可以透過檢索增強生成(RAG)接入部分資料 * 缺點 * 只能使用很少量的資料,大量資料無法放入提示中 * 容易「遺忘」提示中的資料 * 容易產生「幻覺」(hallucination),亂捏造資訊 * 檢索增強生成(RAG)可能會取回錯誤的資料 * 適用情境: * 泛用案例 * 快速原型或概念驗證 - Finetuning: * 優點: * 可以使用近乎無限量的資料進行訓練 * 模型可以從資料中學習新的知識 * 可以糾正模型原先學到的錯誤資訊 * 使用小型模型後可以降低成本 * 也可以配合RAG使用 * 缺點: * 需要大量高品質的訓練資料 * 需要額外的計算資源,前期成本較高 * 需要一定的技術能力,尤其是處理資料的技能 * 適用情境: * 領域專家級的應用 * 生產環境中的應用 * 需要自訂模型的企業應用 ### Fine-tuning 自己的大型語言模型(LLM)的好處如下 * 效能 * 避免語言模型亂編造資訊(stop hallucinations) * 增加模型穩定一致的輸出(increase consistency) * 減少不需要的資訊(reduce unwanted info) * 隱私 * 在自有機房或雲端虛擬私有雲(on-prem or VPC)部屬,避免資料外洩 * 防止資料洩漏與遭到入侵(prevent leakage and breaches) * 成本 * 降低每一次請求的成本(lower cost per request) * 提高成本的透明度與控制力(increased transparency and contro!) * 可靠度 * 控制服務的上線時間(control uptime) * 降低延遲(lower latency) * 進行調節與管控(moderation) ### Lab範例 #### 簡單demo 直接使用LLM模型 vs. finetune後的chat模型 vs. chtgpt - 模型的使用封裝得相當簡單 ```python=! from llama import BasicModelRunner non_finetuned = BasicModelRunner("meta-llama/Llama-2-7b-hf") finetuned_model = BasicModelRunner("meta-llama/Llama-2-7b-chat-hf") chatgpt = BasicModelRunner("chat-gpt") # 直接輸入問題就可以檢視生成結果 print(chatgpt("Tell me how to train my dog to sit")) ``` * 讓 LLAMA2 模型回答「告訴我如何訓練狗狗坐下」等問題,結果並未正確回答 * 再試著讓 LLAMA2 回答其他問題,取得的結果都不太理想 * 接著展示已 Fine-tuned 過專注在對話的 LLAMA2Chat 模型 * 相同的問題透過 Fine-tuned 模型都得到更正確、符合預期的回答 * 顯示 Fine-tuned 模型在指定任務上的表現優於一般模型 --- ## 補充資料 #### [2023.11. Isaac. LLM Evaluation 如何评估一个大模型?](https://zhuanlan.zhihu.com/p/644373658) #### [Finetuning Large Language Models- Evaluation and iteration](https://hackmd.io/@YungHuiHsu/ryfM524Ga) > - 評估生成模型的困難性(Evaluating generative models is notoriously difficult) > - 生成模型的評估是出了名的困難 > - 模型的性能隨著時間的推移不斷提高,而評估指標實際上很難跟上這種速度 > - 人工專家評估是最可靠的 > - 由於缺乏明確的評估指標,人工評估成為了最可靠的方式 > - 需要有對領域有深入了解的專家來評估模型的輸出