# 【生成式AI導論 2024】第1講:生成式AI是什麼? * 人工智慧: 電腦展現"智慧",但"智慧"沒有統一的定義 * 生成式人工智慧: 機器產生複雜有結構的物建,如文章、影像、語音。![image](https://hackmd.io/_uploads/rywjeJmsJx.png) * "複雜"指複雜到無法窮舉,以寫100字文章而言,假設有1000常用字,窮舉而言有1000^100種組合,遠大於宇宙中原子總數。 * 例如分類就不是生成式,他從有限的分類選項中選擇。 * 機器學習: 讓機器從資料鐘自動找一個函式。 * ![image](https://hackmd.io/_uploads/H147fkQjJg.png) * 模型就是帶有大量未知參數的函數 * 機器學習的學習指的就是找這上萬個參數的過程 * 用來找這個函數的資料就是訓練資料 * 而這上萬個參數的函數現在被表示為類神經網路的樣子![image](https://hackmd.io/_uploads/SJtVm17jkl.png) * 解這個類神經網路,就叫深度學習了 * 以上提到的人工智慧、生成式人工智慧、機器學習、深度學習的關係大概長這![image](https://hackmd.io/_uploads/S1XFmyXjye.png) * 所以ChatGPT也就是個函式,只是有上億個參數,十分複雜,使用的模型是Transformer。![image](https://hackmd.io/_uploads/SJgveVy7syx.png) * 所以AI繪圖也是個函式,也是有上億個函數的模型![image](https://hackmd.io/_uploads/ryplEJQikl.png) * 我們過去熟知的回歸、分類任務只是一小部分,就像獵人中的世界vs暗黑大陸一樣![image](https://hackmd.io/_uploads/Bkg94J7o1x.png) * 生成式AI的挑戰就是要能產生完全沒有看過的東西,解決方法就是在訓練時讓他練習接龍(Transformer的Masked multi-head attention),把無限的選擇變成接龍的有限選擇(接龍有上句就大概知道怎麼接下句)![image](https://hackmd.io/_uploads/HyhbIJQiJx.png) * 這種接龍遞迴生成內容的動作就叫做 Autoregressive Generation![image](https://hackmd.io/_uploads/H1MvUkXi1l.png)