Fine-tuning 使您可以將遠超過提示所能容納的更多資料輸入模型中
Fine-tuning 使模型可以從資料學習,而不僅僅是透過提示獲得資料的存取權
案例1:醫療診斷
案例2:對話機器人
from llama import BasicModelRunner
non_finetuned = BasicModelRunner("meta-llama/Llama-2-7b-hf")
finetuned_model = BasicModelRunner("meta-llama/Llama-2-7b-chat-hf")
chatgpt = BasicModelRunner("chat-gpt")
# 直接輸入問題就可以檢視生成結果
print(chatgpt("Tell me how to train my dog to sit"))
- 評估生成模型的困難性(Evaluating generative models is notoriously difficult)
- 生成模型的評估是出了名的困難
- 模型的性能隨著時間的推移不斷提高,而評估指標實際上很難跟上這種速度
- 人工專家評估是最可靠的
- 由於缺乏明確的評估指標,人工評估成為了最可靠的方式
- 需要有對領域有深入了解的專家來評估模型的輸出