## 人工智慧(AI)的歷史演變與重大突破 人工智慧(AI)是近代科技發展最重要的領域之一,從 20 世紀中期的理論基礎建立,到 21 世紀的深度學習與生成式 AI,AI 逐漸從學術研究走向商業應用,並成為影響全球社會與經濟的重要技術,本文將詳細探討 AI 自 1940 年代至今的發展歷史,分析其重大技術突破,並解釋其如何影響現代社會。 ## 1940s–1950s:AI 的概念誕生 人工智慧的概念可以追溯至 1943 年,當時美國神經科學家 Warren McCulloch 和數學家 Walter Pitts 發表論文,提出人工神經元(Artificial Neuron)的數學模型,這是一種基於人腦神經結構的計算模型,為後續的類神經網絡研究奠定了基礎。 1950 年,英國數學家 艾倫·圖靈(Alan Turing) 發表論文《計算機與智能(Computing Machinery and Intelligence)》,並提出著名的 「圖靈測試(Turing Test)」,這是一種測試機器是否具備智能的方法,如果一個機器在對話過程中能讓人類無法區分它與真人,那麼該機器就可被視為具有人類級別的智能,這一概念成為人工智慧發展的重要里程碑,影響後續 AI 研究的方向。 1956 年,人工智慧的概念正式確立。在美國達特茅斯學院舉辦的達特茅斯會議(Dartmouth Conference) 中,John McCarthy、Marvin Minsky、Nathaniel Rochester 和 Claude Shannon 提出「人工智慧(Artificial Intelligence,AI)」一詞,並確立 AI 作為一個獨立的學術研究領域,這次會議被視為 AI 的正式誕生,開啟了 AI 的研究熱潮。 ## 1956–1974:AI 早期發展與第一次黃金時代 1957 年,Frank Rosenblatt 提出了感知機(Perceptron),這是最早的單層神經網絡模型,能夠學習二元分類問題。感知機的設計靈感來自人腦神經元,使用權重調整的方式來更新模型的決策能力。 然而,1969 年,Marvin Minsky 和 Seymour Papert 在其著作《感知機(Perceptrons)》中證明,單層感知機無法解決 XOR 問題,即它無法學習某些類別之間的非線性關係。這一發現導致神經網絡研究受挫,影響 AI 研究的發展。 1966 年,美國計算機科學家 Joseph Weizenbaum 創造了 ELIZA,這是第一個基於規則匹配技術的聊天機器人。ELIZA 可以模擬心理諮詢師與患者對話,雖然它只是簡單地基於模式匹配回應用戶輸入,但這是自然語言處理(NLP)領域的一個重要里程碑。 ## 1974–1980:第一次 AI 寒冬 1970 年代後期,人工智慧研究遭遇了重大瓶頸,導致研究熱潮迅速冷卻,這一時期被稱為「第一次 AI 寒冬」。 * 計算能力不足:當時的硬體無法支持複雜的 AI 模型訓練。 * 缺乏實際應用場景:許多 AI 研究仍停留在理論階段,未能找到商業應用價值。 * 資金支持減少:由於政府與企業投資者對 AI 技術的興趣下降,研究經費大幅減少。 由於資金短缺與技術瓶頸的雙重打擊,AI 研究的發展受到了極大的阻礙,許多學者開始質疑 AI 是否能真正實現人類智能的模擬能力。這場寒冬持續了數年,直至 1980 年代初期,專家系統的興起才讓 AI 研究重新獲得關注。 ## 1980–1987:專家系統時代 專家系統是一種基於知識庫(Knowledge Base)和推理機制(Inference Engine)的人工智慧技術,旨在模擬人類專家的決策過程,試圖透過規則推理來解決特定領域的問題,例如醫療診斷、金融分析和工業控制。 1980 年代,許多公司開始開發並應用專家系統,其中 XCON(Xerox Configuration System) 是最成功的案例之一。這是一個專為數字設備公司(Digital Equipment Corporation, DEC)開發的專家系統,能夠根據客戶需求自動配置計算機硬體,大幅提升了生產效率和成本效益。 然而,專家系統的發展也受到了一些限制,這些系統依賴於大量手工編寫的規則,使得開發與維護成本高昂,此外,專家系統缺乏學習能力,無法根據新的資訊自動更新知識庫,這使得它們難以適應快速變化的環境。 ## 1987–1993:第二次 AI 寒冬 這一次的寒冬與第一次相似,主要原因仍然是技術受限與市場需求下降,專家系統的知識庫需要大量人力來維護,而當知識庫規模變得越來越龐大時,系統的效能反而開始下降,此外,企業發現專家系統的應用範圍受限,難以應對現實世界中複雜且動態變化的問題。 * 知識庫的建立與維護需要大量人力和時間:系統開發成本過於昂貴。 * 規則推理方法缺乏靈活性:無法應對動態變化的環境,使得應用場景受限。 ## 1993–2010:機器學習興起 1990 年代後期,隨著計算機技術的進步,機器學習(Machine Learning)逐漸成為 AI 領域的核心技術,這一時期的 AI 研究不再僅依賴符號推理,而是轉向統計學習和數據驅動的方法。 1995 年,支持向量機(Support Vector Machine, SVM) 被提出,這是一種強大的分類演算法,被廣泛應用於文本分類、人臉識別等領域。 1998 年,Yann LeCun 發表了 卷積神經網絡(Convolutional Neural Network, CNN),並成功應用於手寫數字識別(MNIST 數據集),顯示了神經網絡在圖像處理上的潛力。 2006 年,Geoffrey Hinton 重新發現並改進了反向傳播(Backpropagation) 算法,使得深度學習(Deep Learning)技術得以發展,這一突破解決了多層神經網絡難以訓練的問題,讓 AI 研究重新獲得關注。 :::info 符號推理(Symbolic Reasoning)是人工智慧(AI)的一種方法,它利用邏輯規則、數學運算和符號表示來模擬人類的推理過程,這種方法試圖用明確的規則來表達知識,並透過推理引擎對資訊進行處理,以得出新的結論。 在符號推理的框架下,AI 系統會以符號(symbols)來代表各種概念,如物件、關係或行動,並使用邏輯運算來推導新的知識,例如我們有「所有貓都是動物」以及「湯姆是一隻貓」這兩條規則,透過符號推理,系統可以自動推導出「湯姆是一隻動物」的結論。 ![image](https://hackmd.io/_uploads/S1w59mZ3Jl.png) ::: ## 2011–2016:深度學習與大數據時代 進入 2010 年代,隨著計算能力的提升和大數據技術的普及,深度學習技術開始在各個領域取得突破。2012 年,Alex Krizhevsky 開發的 AlexNet 在 ImageNet 圖像分類競賽中獲得壓倒性勝利,證明了深度學習的強大能力,推動 AI 在計算機視覺領域的應用。 2014 年,Ian Goodfellow 提出了 生成對抗網絡(GAN),這是一種能夠生成逼真圖像的 AI 模型,推動了 AI 在內容生成(如 Deepfake、AI 藝術)方面的應用。 2016 年,DeepMind 的 AlphaGo 擊敗世界圍棋冠軍李世乭(Lee Sedol),展現 AI 在高難度決策問題上的潛力。 ## 2016–至今:生成式 AI 時代 2020 年,OpenAI 推出 GPT-3,這是一款擁有 1750 億參數的自然語言模型,具備強大的文本理解與生成能力。 2022 年,ChatGPT 正式發布,標誌著 AI 進入大眾市場,被廣泛應用於寫作、程式設計、教育和客服等領域。生成式 AI 正在重塑未來科技世界。