# Prompt Engineering 提示語工程
### 主講人:黃夙賢
---
## Transformer應用
- Google Bert應用encoder
- OpenAI ChatGPT應用decoder

---
## LLM模型越來越大
- LLM訓練的模型越來越大,大到連載入GPU記憶體都不可能
- 微調(fine-tune)預訓練模型(Pre-trained Model)越來不可能
- LLM功能越來越強大,是否只要==適當地詢問問題,就能夠取代微調功能==
---
## OpenAI
- 2015年美國成立,為一個人工智慧研究實驗室,目的是促進和發展友好的人工智慧
- 由OpenAI LP與OpenAI Inc(非營利)所組成
- Elon Must為創辦人之一,因為OpenAI後續成立營利組織OpenAI LP,與其公開的理念不合,於2019年離開,由微軟注資10億美元入股
- 許多成員來自於Google AI團隊
- 著名作品:GPT、Dalle-2

---
## GPT
- GPT(Generative Pre-trained Transformer)
- 應用transformer的decoder
- 跟Bert不同,目的在創造一個直接使用,不需要fine-tuned的一般化模型,因此參數極多
- 應用方式為給定一個文字,自動產生下一個文字,因此適用於對話、問答系統
---
## GPT發展歷史
- 2023年3月發布gpt4,擁有多模態功能(支援文字以外的內容)
- 2023年12月發布gpt4 turbo,更便宜(價格相較於 GPT4 降低了 75%),更準確,功能更強大

#### 資料來源:[Quinn](https://www.youtube.com/watch?v=S3xgoFFwlpM)
---
## [ChatGPT](https://openai.com/blog/chatgpt/)
- 2022年11月推出的人工智慧對話應用程式
- Bert是理解上下文,ChatGPT是由上文來推導出下文
- 技術來自於InstructGPT,引入人類模型(Instructor)來模仿人類回文喜好
- 無法連線網路,及時找出最新資訊來對話
---
## 驚人的參數與花費
- ChatGPT約有十兆的參數量
- 訓練一次超過1200萬美元,需要3萬多片Nvidia圖形處理器,預估初期投入成本約為8億美元,每天電費更高達5萬美元左右
- 生成一條資訊的成本在 1.3 美分左右,是目前傳統搜尋引擎的 3 – 4 倍
- ChatGPT Plus的月度訂閱計劃,費用為20美元

---
## GPT-4
- OpenAI於2023年3月14日發布的自回歸語言模型
- 可預測文字數由2000->32768
- 可輸入圖片,讓AI來解讀
- 例如給一個氣球圖片,詢問剪掉線會如何
- 美國律師資格考能拿到前10%的分數(GPT3.5為90%)
---
### [參考資料](https://www.ithome.com.tw/news/155980)

---

---

---
## Prompt練習
- [OpenAI範例](https://github.com/shhuangmust/AI/blob/112-1/18.OpenAI_Chat.ipynb)
- [需要申請OpenAI API key](https://hackmd.io/ZFZ1DfN5QQ-wfJbhoX6xKQ)
- 新帳號(須手機認證),可以有一定的免費額度,三個月用完
- 超過三個月,需用==信用卡==扣款

---
## 新增API key

---
## 複製API key
- 只會出現在這邊,==一定要複製(copy)下來==,離開這個畫面即無法找回

---
## 把API key填入
- 記得上傳github之前,務必刪除api key內容
- 如未刪除,open ai 會自動刪除此key,避免洩漏

---
## 提示語原則
- 清晰而具體的提示
- 給模型思考的時間
- 模型的限制
- 迭代的重要性
---
{"metaMigratedAt":"2023-06-17T21:42:17.132Z","metaMigratedFrom":"YAML","breaks":true,"contributors":"[{\"id\":\"ef0225b9-6c2a-4012-82c9-fa1031d2c4db\",\"add\":3572,\"del\":1209}]","title":"Prompt Engineering 提示語工程"}