之前在整理 〈GTC 2022 某場演講〉與〈CodeFree|喝一杯咖啡,輕鬆學電腦科學〉時,我就有打算要整理。不過拖延症又發作,導致這篇文章一度難產 ╮(╯▽╰)╭。
直到最近文組的朋友問了我這個問題,我才想起這篇躺在草稿夾裡的文章,想到好久沒更新的網誌,乾脆把它拿出來寫一寫唄!…雖然距離重寫到現在發表,又過了好一段時間(掩面
人工智慧是一個總稱,包括機器學習和深度學習(圖片來源:這張圖可以幫助我們理解三者之間的關係,基本上它們是彼此的子集。人工智慧是一個總稱,包含了機器學習,而深度學習又是機器學習下的一個分支。
是說,我在閱讀時,找到一句很棒的話:
人工智慧(Artificial Intelligence,AI)其實並不是一個特定的技術,而是一種通過電腦來展現人類智慧的概念。這個概念發展至今日,已經廣泛應用於醫療、製造、電子產品、交通、翻譯、金融等領域。
依照這個概念來說,所有模擬人類智慧的技術都可以被視為 AI 的範疇,因此像是 規則式系統(Rule-based Systems) 與 專家系統(Expert Systems) 也都屬於 AI 的範疇。所以,當許多公司宣稱擁有 AI 時,可能跟你想像中的 AI 有些不同 XDDD。
現如今,大家對人工智慧的想像,可能更貼近《鋼鐵人》中賈維斯的形象,甚至比它更強大——不僅能像人類一樣進行真正的思考、推理,還能實現自我學習與持續進化。像這類的技術依其智慧能力可劃分在 通用 AI(Artificial General Intelligence,AGI) 的階段。
然而,目前通用 AI 仍停留在科幻小說和理論研究階段,尚未真正實現。不過,去年底,據傳 OpenAI 的內部計畫 Q(Q Star)* 在某些關鍵領域取得了突破性進展,這可能標誌著向通用 AI 邁進了一步。
AI的演進(圖片來源:若說,通用 AI 是追求像人類般的全面智能,那 狹義 AI(Narrow AI) 和 廣義 AI(Broad AI),則代表了處於進行式和未來式的兩個階段:
即便在聊天機器人領域的領頭羊 ChatGPT,目前仍未達到真正的廣義 AI 的程度。所以,IBM 森本典繁先生在 2019 年的一篇文章中提到:
在更新這篇文章時,我去問 ChatGPT 他是否覺得自己已經達到廣義 AI 的程度。它回答我,它並未達到真正的廣義 AI 的程度,但在某些方面展現了廣義 AI 的初步特徵,並給了我以下的原因:
思考了一下,為什麼 ChatGPT 會這樣回覆我。若從跨領域整合與持續學習兩方向來思考,它確實展現了狹義 AI的高度成熟,但仍未達到 Broad AI 的核心要求:
題外話,我不太確定 General AI 這個詞該怎麼翻,我看過有文件將 General 這個詞翻譯成普適、通用、一般、廣義…等,最最常見的翻譯是「廣義」一詞。但如果選擇這個翻譯,Broad AI 這個詞反而無法對應,所以我最終採用了《天下雜誌》IBM 專欄中所使用的翻譯,將其分別翻譯為通用 AI、狹義 AI、廣義 AI。
要讓人工智慧從從概念走向現實,機器學習扮演了至關重要的角色。它是達成人工智慧的一種方法,旨在模仿人類如何從經驗中汲取智慧。
可以說,機器學習是個從過往的資料和經驗中學習並找到其運行規則的過程。它通過輸入資料,並經由模型(即是演算法)進行分析和學習。通過大量數據和演算法來訓練機器,達成判斷或預測的目的。這個過程可以類比於人腦的學習過程:
機器學習的過程就是仿照人腦的學習過程(圖片來源:與過往的規則式系統(Rule-based Systems)不同,機器學習無需手動編寫包含特定規則和邏輯的程式來進行判斷或預測;它是從大量樣本中訓練機器辨識規則(即演算法、模型),並利用這些規則進行判斷或預測。
就像上班族遇到不懂的,會糾結到底是要去問人,直接得到明確答案?還是自己慢慢摸索,得出自己的經驗?在機器學習中,也是有這這樣兩種學習方式:監督式學習(Supervised Learning) 與 非監督式學習(Unsupervised Learning),它們是根據資料是否已經標註進行分類:
兩種方法各有優缺點,監督式學習通常效果較好,但需要大量標註資料,且標註品質會影響訓練結果。因此,後來衍生出了半監督學習(Semi-supervised Learning)。
除了常見的監督式和非監督式學習外,還有一種獨特的方法——強化學習(Reinforcement Learning),它不像前兩者需要標註資料,而是通過 正向回饋(Positive Reward) 和 負向回饋(Negative Reward) 來引導機器調整行為,最終達成預期結果。
我在〈【機器學習基石筆記】數學基礎 Week3〉中的 Learning with Different Data Label 一文中曾介紹過這些學習方式,細節就不再贅述,需要了解的可以過去看,麻煩大家幫忙衝下點閱率了(誤
機器學習大致上可以分為監督式學習、非監督式學習與強化學習三類(圖片來源:那麼,在實際應用中,該如何選擇最適合的機器學習模型呢?這就需要使用者根據具體問題、資料特性以及可能的挑戰,例如是否會出現過擬合(Overfitting)…等情況進行全面評估。
常見的模型有隨機森林、SVM、決策樹、集群、貝葉斯網路、神經網路(Neural Network,NNs)…等。其中神經網路是機器學習的一個重要分支,它模仿人腦中神經元的結構,而多層隱藏層的神經網路又稱為深度學習,是目前人工智慧發展中最為關鍵的技術。
AWS)
深度神經網路或深度學習網路具有數百萬個連結在一起的人工神經元隱藏層。(圖片來源:雖說機器學習為人工智慧的發展奠定了基礎,但對於處理更複雜的問題,例如影像識別或自然語言處理,傳統方法難以達到實際需求。這時,深度學習提供了一條新路徑,嘗試將需要人類智慧的複雜任務自動化。
深度學習是機器學習的一個重要分支,如前述,其核心是構建多層的神經網路,模仿人類大腦的神經元結構,並從海量數據中學習和提取特徵,你可以將它視為一種實現機器學習的技術,甚至可以直接將其視為先進的機器學習技術。
雖然兩者的工作流程與目標一致,但在演算法的處理上略有不同。以我在 Quora 上看到的一張辨識車輛的學習流程為例:
車輛辨識在機器學習與深度學習的差異 (圖片來源:在傳統機器學習中,需要進行特徵擷取(Feature Extraction),然後將資料輸入訓練模型,最後得到預期結果。值得注意的是,所擷取的特徵都是由人類所能理解並定義,如:顏色、品牌…等,畢竟這很大機會是工程師肝出來 XDDD
在圖中可以看到,機器學習需要手動進行特徵擷取,而在深度學習中則省略了這一步。只需將資料輸入模型,模型將自動提取特徵並輸出結果。不同於人工擷取的特徵,深度學習所提取的特徵通常更為抽象且難以理解,這也是深度學習之所以被稱為黑盒子的原因。記得之前嘗試過將模型每一層的輸出視覺化,結果出來了一堆奇奇怪怪的幾何或線條,我都不曉得它到底是看了什麼…當然,也不排除我自己印錯了 XDDD
雖然人工智慧這幾年火到快燒掉,但其實,從人工智慧的誕生到神經網路的發展,這並非一個全新的領域。
人工智慧的概念早在 1950 年代就已被提出,當時艾倫.圖靈(Alan Mathison Turing)提出了著名的「圖靈測試」,開啟了人類對機器智慧的探索。至於神經網路與用於模型訓練的反向傳播演算法(Back Propagation),則是在 1980 年代問世。儘管早期由於運算能力的限制,相關研究一度陷入低潮,但 2006 年多層神經網路訓練的突破讓這項技術以「深度學習」的姿態強勢回歸,並隨著資料蒐集效率的提升與 GPU 技術的成熟,深度學習得以迅速崛起,並逐漸成為人工智慧領域的主流方法。
近年來,人工智慧領域最火熱的寵兒——生成式人工智慧(Generative AI),特別是 ChatGPT、DALL·E、Stable Diffusion 等應用的誕生,展現了生成式模型在文本、圖像生成等領域的強大能力,而它的基礎也是深度學習。
但隨著 AI 能力增強、巨型模型的出現,也帶來了倫理與法律挑戰,包括隱私問題、偏見與歧視、假資訊泛濫等,需要我們多加注意。因此目前推動人工智慧法案(AI Act),以規範 AI 的設計和使用,確保技術發展的同時符合社會利益。可解釋 AI(Explainable AI,XAI)如何讓人類瞭解人工智慧下判斷的理由。
然而,隨著AI能力的增強和巨型模型的出現,也帶來了諸多倫理與法律挑戰,例如隱私問題、偏見與歧視、假資訊泛濫,甚至衍生出 AI 詐騙等議題,這些都需要我們在日常生活多加注意。因此,目前各界積極推動人工智慧法案(AI Act),旨在規範 AI 的設計和使用,確保技術發展與社會利益的和諧。而可解釋 AI(Explainable AI,XAI)的興起,也讓人類能夠更清楚了解人工智慧做出判斷的依據。