### **基本資訊** * **訪談場次/主題**:[AI 能像人類思考?AGI 近在眼前?專訪 Google DeepMind 研究副總裁紀懷新](https://www.youtube.com/watch?v=f6mxGtSVPf0) * **受訪者**:紀懷新(Ed H. Chi),Google DeepMind 資深副總裁 * **訪談者**:VK (VK 科技閱讀時間) * **訪談日期**:約 2025 年 8 月 27 日 (根據影片發布日期推斷) * **研究目標 (推斷)**: 1. 探討紀懷新博士個人研究思想的淵源,特別是認知科學對其 AI 研究的影響。 2. 理解從 Chain of Thought 到 DeepThink 的 AI 推理技術演進脈絡與核心差異。 3. 剖析當前 AI 在模擬人類思維(System 1 vs. System 2)上的進展與侷限。 4. 探索 Google DeepMind 對 AGI 與未來 AI 應用(如 Project Astra)的願景與策略。 5. 為台灣 AI 產業與研究者提供關於小模型趨勢、獨特機會與研究方向的建議。 ### **說話者對照表** * **VK**: VK * **紀懷新**: 紀懷新 (Ed Chi) ### **目錄 (Table of Contents)** * [摘要](#summary) * [主題歸納](#themes) * [1. 思想淵源:從 Xerox PARC 到認知科學](#theme-1) * [2. AI 推理的演進:從 Chain of Thought 到 DeepThink](#theme-2) * [3. AI 思維的模擬:System 1 與 System 2 的整合](#theme-3) * [4. AI 的角色:智慧增強 (IA) vs. 人工智慧 (AI)](#theme-4) * [5. 未來願景:情境感知與實體互動](#theme-5) * [6. 產業趨勢與研究建議](#theme-6) * [時間線/事件序列](#timeline) * [利害關係人與情境](#stakeholders) * [分析與建議 (洞察)](#insights) * [逐字稿全文](#transcript) --- ## 專訪 Google DeepMind 研究副總裁紀懷新 AI筆記 ### <a id="summary"></a>摘要 本次訪談深入探討了 Google DeepMind 研究副總裁紀懷新博士在 AI 領域的核心思想與研究歷程。紀博士強調,其研究深受早期在 Xerox PARC 的經歷以及 Herbert Simon 等認知科學大師的影響,這促使他從心理學角度思考機器學習,最終催生了革命性的「Chain of Thought」論文。他進一步闡述了從 Chain of Thought 的「模板化思考」到 DeepThink 的「反思性探索」的演進,認為後者整合了 System 1(直覺)與 System 2(推理)思維,是邁向 AGI 的關鍵一步。 訪談中,紀博士重申了「智慧增強」(Intelligence Augmentation, IA)的理念,認為 AI 的核心價值在於輔助人類處理高耗能的 System 2 思維任務,而非完全取代。他以 Project Astra 為例,描繪了一個能理解物理世界情境(Situated)的通用智慧助理藍圖。最後,他為台灣的產業與研究者提出了具體建議:關注「小模型的Scaling Law」所帶來的邊緣運算(Edge Computing)機會,並投入不需要龐大算力、但極具價值的「跨領域橋接」(Bridging)研究,例如模型對齊(Alignment)與應用落地。 ### <a id="themes"></a>主題歸納 #### <a id="theme-1"></a>1. 思想淵源:從 Xerox PARC 到認知科學 * **要點**:紀博士的研究思想並非源於純粹的電腦科學,而是深度根植於矽谷的歷史、Xerox PARC 的研究文化,以及認知心理學的理論。 * **證據**: * **Xerox PARC 的影響**:受到 Allen Newell 與 Herb Simon 的學生 Stuart Card 的直接影響,在一個名為「應用心理學單位」(Applied Psychology Unit)的實驗室工作,早期就致力於結合 AI 與 HCI(人機互動)的研究。 > 我對 AI 跟 HCI 非常有興趣,所以這個淵源是非常的有直接連結的。 [00:04:40] * **Herbert Simon 的啟發**:Simon 的「有限理性」和「滿意度」(Satisficing)概念,以及 Kahneman & Tversky 的展望理論,啟發紀博士思考人類並非完全理性的決策模式。 > 人並不是一個完全 rational 的一個 thinker,他事實上是會叫做 (...) Satisficing,就是你只要滿足就行了。 [00:05:40] * **跨領域研究**:將認知學的觀點應用於資訊科學,例如 Information Scent、Information Forging 等研究,都是在探索兩個領域之間的連結。 #### <a id="theme-2"></a>2. AI 推理的演進:從 Chain of Thought 到 DeepThink * **要點**:AI 的推理能力從遵循固定模板(Chain of Thought)進化到具備自我反思與探索的能力(DeepThink),這標誌著 AI 從單純的「利用」現有知識(Exploitation)轉向「探索」新可能(Exploration)。 * **證據**: * **Chain of Thought 的誕生**:源自認知心理學家皮亞傑(Piaget)的基模理論(Schema Theory),試圖用「模板」(template)來教導機器學習如何解決問題,以應對大模型需要過多資料學習的挑戰。 > 所以 Chain of Thought 事實上是從這個 idea 剛剛開始,就是 Piaget 的 schema 嗎?對,就 Piaget 的 schemata 的 idea。 [00:08:03] * **DeepThink 的突破**:超越了模板,加入了「反思」的動作,更接近人類的探索式思維,類似於傳統 AI 中的「搜尋」(search)行為。 > DeepThink 這方面的 Research,有一點點不只是在 Follow 這個 Template,而是說它像你剛剛講的,它會有一些反思的動作。 [00:09:24] * **AGI 的雛形**:紀博士認為,機器能夠「自己反思自己的 Thought Pattern」,是機器智慧的一個重要定義。從這個角度看,DeepThink 已經走在通往 AGI 的路線上。 > 如果我們把它當作一個 AGI 的 Definition 的話,事實上 DeepThink 他就是已經在 AGI 的路線上已經在走了。 [00:10:48] #### <a id="theme-3"></a>3. AI 思維的模擬:System 1 與 System 2 的整合 * **要點**:早期深度學習擅長 System 1 的模式識別(低耗能直覺),而當前大模型通過 Chain of Thought 等技術開始具備 System 2 的邏輯推理能力(高耗能思考)。兩者的融合是 AGI 的核心。 * **證據**: * **System 1 vs. System 2**:System 1 是快速、直覺的思考(如辨識麥克風),耗能低;System 2 是緩慢、深度的邏輯推理(如定義 AGI),耗能高。 * **AI 的價值轉移**:AI 的價值正從輔助低耗能的 System 1 任務,轉向輔助高價值、高耗能的 System 2 任務,這是大模型令人興奮的原因。 > 他已經在開始輔助人們,這一種非常 high value,非常 high energy 的 thinking pattern。 [00:18:35] * **AGI 的新定義**:紀博士提出,System 1 和 System 2 思維的整合,可能就是 AGI 的一個更完美的定義,而目前的 Transformer 技術正促成這種融合。 > 那這種融合非常有可能就是 AGI 的開始 (...) 如果我們用另外一個方法來看這個東西就是說 System 1 and System 2 的 Integration,是 AGI 的 Definition 的話,那我們已經開始做到這件事情了。 [00:15:51] #### <a id="theme-4"></a>4. AI 的角色:智慧增強 (IA) vs. 人工智慧 (AI) * **要點**:紀博士更傾向於將當前的 AI 視為「智慧增強」(Intelligence Augmentation, IA),其核心是輔助人類、由人類掌握主導權,而非完全自主的「人工智慧」(AI)。 * **證據**: * **歷史辯論**:70 年代在史丹佛大學就有「AI vs. IA」的辯論。IA 的目標是增強人腦有限的能力,代表人物是 Douglas Engelbart 與 Vannevar Bush。 * **主導權問題**:AI vs. IA 的根本問題在於「主導權」(Autonomy)。目前的 AI 應用更像是人類的「員工」,由人來設定方向。 > 他最根本的問題就是 (...) Autonomy 的問題 (...) 是誰在主導這個 Machine 的這個 Creativity。 [00:23:53] * **Google 的願景**:Project Astra 被稱為「智慧助理」,其理念更接近於 IA,即「Augmenting Human Intellect」(增強人類智力)。 #### <a id="theme-5"></a>5. 未來願景:情境感知與實體互動 * **要點**:AI 的下一步是走出虛擬世界,成為能夠理解並與物理世界即時互動的「情境感知」(Situated)助理,最終目標是通用機器人。 * **證據**: * **Situated AI**:Project Astra 的前身叫 SIA(Situated Intelligent Assistant),強調 AI 必須與使用者在同一個時空情境中,才能提供真正有用的幫助。 > 意思就是說這個 assistant,他能夠知道我在什麼樣的一個情景。 [00:26:36] * **多模態整合**:過去需要將視覺、聽覺等模組分開再整合,現在的大模型可以端到端(end-to-end)地處理多模態資訊,實現情境理解。 * **從助理到機器人**:紀博士認為,真正的終極應用是具備實體能力的通用機器人(General Robotics),能處理洗衣、做飯等物理任務,並預期在 10-20 年內可能實現。 > 我真正想要他幫忙做的事情可能是清理家裡啊、幫我煮飯啊 (...) 我現在越來越覺得非常有可能 (...) 可能大概 10 到 20 年之內嗎? (...) 我覺得你剛剛講的那個數字是非常 reasonable 的。 [00:34:27] #### <a id="theme-6"></a>6. 產業趨勢與研究建議 * **要點**:存在一個「小模型的 Scaling Law」,為邊緣運算(Edge Computing)和台灣供應鏈帶來巨大機會。同時,研究者不應只專注於算力競賽,而應尋找不需要龐大算力、但具備高度創新性的「跨領域橋接」研究方向。 * **證據**: * **小模型的 Scaling Law**:每一代新的大模型出現時,同代的中小模型能力都能達到上一代大模型的水平。這意味著未來在手機等裝置上運行的端側 AI 將會非常強大。 > 每一次大的模型出來了以後,中小的模型跟上一期的大模型的 capability 是一模一樣的。 [00:46:09] * **給年輕研究者的建議**: 1. **專注於推理而非算力**:如 Chain of Thought 的研究,僅花費約 5000 美金算力,關鍵在於創新的思維模式。 2. **關注應用落地**:如何將大模型的能力與真實世界的應用(downstream application)連結,是一個研究缺口。 3. **投入對齊研究**:AI 安全與使用者需求本質上都是「對齊」(Alignment)問題,這類研究不需要大量晶片,但至關重要。 * **跨領域橋接的價值**:紀博士自評為「通才」(generalist),其價值在於連結不同領域(如認知科學與電腦科學)。他引用社会學家 Ronald Burt 的「經紀」(Brokerage)和「社會資本」理論,說明「牽線」本身就是一種核心價值。 > 我就覺得說也許我可以做一些其他的 research 是更像是一種 bridging 的 research,就是一個領域跟另外一個領域之間的這種 bridge。 [00:54:30] ### <a id="timeline"></a>時間線/事件序列 | 時間點 | 事件/人物/理論 | 影響/關聯 | 關鍵引言/來源 | | :--- | :--- | :--- | :--- | | 1940s | 史丹佛大學進行雷達研究 | 奠定矽谷發展的基礎,吸引了 HP 等公司。 | 紀懷新 [00:01:02] | | 1945 | Vannevar Bush 發表《As We May Think》 | 提出「智慧增強」(IA) 概念,預測了超文本等技術。 | 紀懷新 [00:22:00] | | 1960s-70s | 皮亞傑 (Piaget) 提出基模理論 (Schema Theory) | 成為日後「Chain of Thought」的認知心理學基礎。 | 紀懷新 [00:07:39] | | 1970s | 符號 AI (Symbolic AI) 時代 | 史丹佛大學周邊出現 AI vs. IA 的辯論。 | 紀懷新 [00:21:08] | | 1990s | 紀懷新加入 Xerox PARC | 在「應用心理學單位」開始結合 AI 與 HCI 的研究。 | 紀懷新 [00:04:27] | | 2011 | 紀懷新加入 Google | 開始專注於對話系統、推理與 LLM 研究。 | VK [00:08:28] | | 2017 | Google 發表 Transformer 論文 | 成為當代大型模型的基礎架構。 | 紀懷新 [00:42:32] | | 2022 (約) | Chain of Thought 論文發表 | 提出用模板引導大模型進行推理,僅用少量算力。 | 紀懷新 [00:49:33] | | 2023 | Gemini & ChatGPT 誕生 | 標誌著生成式 AI 進入大眾視野,開啟新一輪革命。 | 紀懷新 [00:38:23] | | 2025 (近期) | DeepThink 模型發布 | 超越模板,具備反思與探索能力,被視為邁向 AGI 的一步。 | VK [00:08:42] | ### <a id="stakeholders"></a>利害關係人與情境 | 角色 | 目標/動機 | 痛點/挑戰 | 關聯流程/場景 | | :--- | :--- | :--- | :--- | | **AI 研究者 (大型)** | 推動 AGI,追求模型能力的極限 (Scaling Law)。 | 巨大的算力與資金需求;模型對齊與安全問題。 | 基礎模型訓練、發表開創性論文。 | | **AI 研究者 (中小型)** | 在有限資源下做出創新貢獻。 | 算力不足,難以復現頂尖研究;尋找獨特的研究切角。 | 應用落地、模型對齊、跨領域橋接研究。 | | **Google / DeepMind** | 實現 AGI,將 AI 技術整合到產品中,造福使用者。 | 如何將基礎研究有效商業化;在 AI 競賽中保持領先。 | 基礎研究、產品開發 (Project Astra)、生態系建立。 | | **台灣供應鏈/硬體商** | 在 AI 浪潮中找到新的增長點。 | 軟硬整合能力;如何從純代工轉向價值更高的領域。 | 邊緣運算 (Edge Computing) 晶片設計與製造。 | | **終端使用者** | 利用 AI 提高工作與生活效率,解決實際問題。 | AI 的可靠性與安全性;如何有效利用 AI 而非被其取代。 | 使用智慧助理、智慧眼鏡等 AI 產品。 | ### <a id="insights"></a>分析與建議 (洞察) 1. **洞察一:創新的來源是「橋接」而非「深度」** 紀博士的成功路徑揭示了一種非主流但極其有效的創新模式。相較於在單一領域鑽研到極致,他的突破(如 Chain of Thought)來自於將一個成熟領域(認知心理學)的概念應用於一個新興領域(大語言模型)。這對於資源有限的研究者或機構極具啟發:**最大的機會可能不在於跟隨巨頭的腳步進行算力競賽,而在於成為不同知識領域之間的「橋樑」**。 2. **洞察二:「小模型的 Scaling Law」是硬體產業的下一個主戰場** 大眾目光普遍集中在最大模型的參數競賽上,但紀博士提出的「小模型能力繼承」趨勢,預示著邊緣運算(Edge Computing)將迎來爆發。當手機、眼鏡、汽車等終端裝置都能運行一兩年前頂級大模型的能力時,將催生全新的應用生態。**對於以硬體製造見長的台灣供應鏈而言,這意味著機會正從雲端資料中心轉向高效能、低功耗的端側 AI 晶片。** 3. **洞察三:AGI 的實現路徑是「整合」而非單點突破** 紀博士將 AGI 的關鍵定義為 System 1(直覺感知)與 System 2(邏輯推理)的融合,而非單純推理能力的無限增強。這意味著,未來的 AGI 不會是一個純粹的「思考機器」,而是一個能無縫整合快速感知與深度思考、並能理解物理情境(Situated)的智慧體。**這也解釋了為何 Google DeepMind 同時投入在 DeepThink(推理)和 Project Astra(多模態感知)上,兩者並非獨立賽道,而是通往同一個終點的兩條腿。** 4. **可操作建議:給台灣研究社群的策略** * **教育轉向**:鼓勵大學資工科系開設更多與認知科學、社會學、語言學等領域的跨學科課程,培養具備「橋接」能力的下一代研究人才。 * **資源聚焦**:研究經費可適度傾斜於「模型對齊」、「AI 應用落地」與「人機互動」等不高度依賴算力的領域,形成差異化優勢。 * **產業聯盟**:推動 IC 設計公司與 AI 軟體新創、應用開發商建立更緊密的合作聯盟,共同搶佔「端側 AI」的市場機會,打造軟硬一體的解決方案。 --- ### <a id="transcript"></a>逐字稿全文 **推測時間:** 依據內容推測,此討論應與 AI 程式開發相關,故難以明確判斷時間。 **VK:** VK **紀懷新:** 紀懷新 **(00:00:00,000) 開場介紹** **VK:** 今天呢,我們邀請到了 Google DeepMind 的資深副總裁紀懷欣。 **VK:** 那,因為今天我們時間非常有限,所以我們就直接進入主題。 **VK:** 就是呢,我想要先從你的職涯經歷開始聊起,因為你很早的時候就先加入了 Xerox PARC,然後工作了12年,後來才加入到 Google DeepMind。 **VK:** 然後在看這段經歷的時候,其實我非常覺得有趣,而且很開心,就是因為我之前有研究過 Xerox PARC 這一個公司的研究中心,然後我也有做了一集介紹。 **VK:** 那其實在這一個工作的地方當中,有很多偉大的電腦科學家,比如說 Alan Kay 或是 Douglas Engelbart,都過去在這個地方工作過。 **VK:** 那最有趣的地方是團隊當中呢,就是你過去也有跟像是 Herbert Simon 這些人,受他的影響然後來工作。 **VK:** 對你來說,就是他們的影響,對你的 AI 研究而言,有哪一些很重要的、很深刻的影響,在你的研究當中? **(00:00:50,460) Xerox PARC 的研究經歷與矽谷歷史淵源** **紀懷新:** 我覺得你提這件事情非常的有趣的原因是因為,很多人事實上對矽谷的這個歷史淵源並不是非常的清楚。 **紀懷新:** 它的開始的原因事實上是在二次世界大戰的時候,史丹佛大學它因為在這個 Radio 的一些像 Radar 這樣子的研究,非常有深度的研究,然後他 establish 一個非常強大的一個團隊,在 School of Engineering 裡面,就 40 年代就一直開始。 **紀懷新:** 然後因為那個原因,後來像這個 Hewlett Packard (HP) 這種 company,後來在 Stanford Research 的這個 Triangle Park,一個 Stanford Research Park 裡面的一個 space,而且那個都是 Stanford 大學當時的一些,就是他們的地,然後呢在上面設立了一些研究中心,然後因為這個原因,有很多很多的精英,為了想要做 research,然後又對西部,就西岸,美國西岸的這種更開放的這種 culture 吸引住,然後呢,所以有很多東岸的很大的公司,因為這些原因就在西岸,特別是在這個斯坦福大學旁邊,建立了他們這種研究中心,那 HP 也是從那個地方開始。 **紀懷新:** 那像你剛剛講的 Douglas Engelbart,他事實上沒有在 Xerox PARC,他是在 SRI,也就是當時叫做 Stanford Research Institute,後來就直接改名叫做 SRI 這樣子的 Organization,然後 Xerox Park 跟他也是並行,就是平起平坐的這種兄弟的,那種 relationship 的一個研究中心。 **紀懷新:** 然後所以從 70 年代開始,可以說就是說還沒有到 personal computing,對不對?我們只是當時剛剛開始這種電腦,電腦的 research 的時候,還在我們所謂當時叫做 mainframe,或者是 mini computer 的時候就開始的一個年代。 **紀懷新:** 那個時候就有一些很新穎的科學家,在這個 Stanford 大學旁邊做很基礎的研究,然後因為那個原因,Douglas Engelbart 裡面的研究團員後來也加入了 Xerox PARC,特別是其中有幾個比較很少人知道的一些名字,像 Bill English 這種都後來影響 Xerox PARC 裡面的很多人,他們做的一些個人數學的研究。 **紀懷新:** 那我自己的老闆那時候叫做,是 Stuart Cart,他是 Allen Newell 的學生,那 Allen Newell 跟 Herb Simon 在 CMU 的時候,做 AI 跟 HCI,或者是所謂的 IA,就是 Intelligence Augmentation 的研究,因為這個原因,他們建議了他們的,最厲害的學生 Stuart Cart 到 Xerox PARC 去工作,然後 Establish 了一個 Laboratory 叫做 Applied Psychology Unit,所以它事實上是一個,他們認為是一個 Applied AI 或 Applied Psychology 的一個 Research 的研究的宗旨的一個地方,然後我加入的時候大概都已經 90 年代了,那是也許十幾年以後,然後從那個時候開始,我對 AI 跟 HCI 非常有興趣,所以這個淵源是非常的有直接連結的。 **VK:** 對,因為我看到這個名字的時候,我覺得非常有趣的原因是因為,我之前有讀過心理學的教科書,然後它只是會出現在教科書上面的任命,然後因為它提過了蠻多很有名的理論,包含說有限理性啊,或者是一些滿意度的那種概念,所以那時候看到,就是你在其他的節目訪談當中,有提到它的時候,喔,OK,很酷,就是 Herbert Simon 他提出的一些認知思考的這些歷程,某種程度是不是影響你後來提出 Chain of Thoughts 的這種想法? **(00:05:14,120) Herbert Simon 與認知心理學對 AI 研究的深刻影響** **紀懷新:** 因為 Herbert Simon 事實上,他的認知學上面的一些 Research,他在 Psychology 上面的一些 Research,後來跟在其他認知學裡面,像這個 Daniel Kennaghan 跟 Tversky 的 Research,有關於 Loss Aversion 或是 Prospect Theory 這些 Ideas,他基本上就是說,人並不是一個完全 rational 的一個 thinker,他事實上是會叫做,你剛剛叫做這個 Satisfying,就是你只要滿足就行了,這樣子的一種思考,或者是說 Daniel Kahneman 他跟 Tversky 在講的是,他們會對失去某些東西都會有一種更 irrational 的一種 calculation,所以這種東西後來是奠定了很多,特別是 behavioral economics 那邊的一些 research。 **紀懷新:** 那這些 idea 跟心理學上面的認知學上面的一些 idea,當時是幾乎是沒有人在想說這個怎麼樣子 apply 在,就是 Computer Science 這種 Information Science 裡面的這些領域,那只有基本上我們當時在 Xerox PARC 做的那幫人,對這方面比較有興趣,所以我後來在 Xerox PARC 裡面做了很多的 Research,像譬如說叫做 Information Scent 或者是 Information Forging 的 Research,都是跟就是認知學跟 Information Science 之間的一些 Connection。 **(00:06:45,000) Chain of Thought 的誕生:從認知學到機器學習的橋接** **紀懷新:** 那個 Chain of Thought 這件事情呢,事實上是跟後來我對就是當時的機器學習 Machine Learning 的這種 Methodology 的這種,就覺得說,為什麼要用這麼多的資料,這個機器才能夠真正學習到?然後我跟 Danny Zhou 在我的 team 裡面就開始在想說,可不可以用認知心理學的方法來教導機器來學習,所以這一個 idea 事實上是從一個認知心理學,特別是在學習我們所謂叫做 learning science 的一個學者所發出來,在 60 年代、70 年代發出來的一個 idea 叫做 schema theory,他的 idea 基本上就是說,如果你可以,一個人如果可以用一個 template 來 solve 一個 problem 的話,那也許我們也可以用這種方法來教導機器來學習,所以 Chain of Thought 事實上是從這個 idea 剛剛開始,就是 Piaget 的 schema 嗎? **VK:** 對,就 Piaget 的 schemata 的 idea。 **紀懷新:** 那,那個東西事實上是,呃,我在念高中的時候,大學的時候,呃,因為幫助我媽媽寫她的心理學,呃,教育心理學方面的 PhD thesis 所學到的東西,所以就後來慢慢的這些東西就串在一起了,對。 **VK:** 呃,後來就是你在 2011 年的時候就加入 Google 了嘛,然後現在是 Google DeepMind 的研究副總裁,那主要就是過去你專注在聊天機器人啊,對話系統,還有一些推理跟 LLM 的研究,然後 Google DeepMind 近期就是有蠻多的新進展,然後包含說近期有 DeepThink 的這個模型出來,然後我自己蠻喜歡這樣的模型,那上週 Demis Hassabi 他其實有在訪談當中提到就是說, DeepThink 它是一個回到 DeepMind 早期,AlphaGo 或是 AlphaZero 的這種 Agent-Based 思維,那也就是說它可以超越單純輸出第一個想到的結果,然後它就是更像人類的思考,就是思考、規劃、推理的能力,然後可以再去反思,還有優化自身的思維過程。 **VK:** 那你覺得從 Chain of Thought 到現在的 DeepThink 的,有哪一些的共通路徑,然後這之中 DeepThink 它在思考上面有哪一些根據優勢的地方? **(00:09:18,780) DeepThink 的突破:從模板思考到反思探索** **紀懷新:** 我覺得大概最大的 difference 事實上是因為,DeepThink 這方面的 Research,有一點點不只是在 follow 這個 Template,而是說它像你剛剛講的,它會有一些反思的動作,那這種思維事實上更像人類的思維的原因,是因為我們不是只是在一直,只在 solve 一個 known problem,而有時候在想一些 exploratory 的東西,那這種思維的話呢,事實上更像是 Demis 的意思,有點像是說我們之前做很多 Computer Science 裡面做很多,我們所謂的思考事實上是一種 search 的行為,就是所謂 search 就是他在 explore 不同的思路。 **紀懷新:** 那 Chain of Thought 並沒有考慮這件事情,我當然後來也有想過,但是真正的落實的時候呢,發現事實上這些 model 可以不停的 apply 之前的 Chain of Thought 來一直優化自己的想法,這個在某種程度上,也許這個誇大其詞,但是我會覺得說其中一個 Definition of Machine Intelligence,就是他會自己反思自己的 Thought Pattern,所以在這種情況下的話,如果我們把它當作一個 AGI 的 Definition 的話,事實上 DeepThink 他就是已經在 AGI 的路線上已經在走了,所以我覺得 Demis 為什麼會提這件事情的原因,就是他意識到這個的根本性。 **VK:** 那你會怎麼看待就是 AI 思考的這個定義當中,就是你剛剛提到說,他以前比較像是 search,然後現在感覺更像是在探索各種不同可能性,對,所以他就是一種 exploratory 的動作,如果從 traditional AI 的角度來看,這種問題的話,就是我們常常會講的,用的一個 concept 就是 exploitation versus exploration 的概念,那 exploitation 在這個情景下的話,我們的基本上意思就是說,如果我教過你一個 template 來 solve problem,那你會不會一直 repeatedly apply 這個 template 來 solve problem,事實上從亞洲學生的這種學習環境裡面,我們事實上最了解這個 exploitation,就是我們就照著公式走,然後就不會有錯誤嘛,對不對? **VK:** 那但是很多比較西方的這種學習方式,他可能會更注重 Exploration 這方面的提升,他會覺得說 Exploration 才是真正的 Creativity,所以這種反思的動作,就是讓這些模型,不只是自己去按照之前的這種 Template 來思考,然後還會反思說這個 Template 在這個情況下是不是用的是正確還是不正確,是不是應該改變它,這個在 PHA 的認知學裡面,或者說 Learning Science 裡面,他會把這個東西叫做 Assimilation 跟 Accommodation,所以你問的這個,我還挺驚訝的,就是說跟你聊,你居然會聊到這麼深,不過,呃,總的,真的從科學家的角度來看的話,這個是一種 assimilation 跟 accommodation 的這種動作,所以機器的,呃,現在這種 machine intelligence,這種真正的機器學習,似乎已經,真正已經開始了,嗯,懂。 **VK:** 嗯,因為我們剛剛其實有提到就是說,人類的認知決策其實通常會涉及到很多不同的面向嘛,就是從這些過去的 Tversky 也好,或者是其他人的理論當中,其實都會涉及到直覺,或者是邏輯的推理,甚至情感的因素,那你會認為說,現在的 AI 模型啊,比如說以 DeepThink 來說,在模擬這種複雜決策的過程當中,它還會缺少了哪一些事情? **(00:13:32,540) System 1 vs System 2 思維:快速直覺與深度推理的整合** **紀懷新:** 你問的這個問題非常好的原因是因為,在我們 Chain of Thought,跟這種 Transformer,這種 Next Token Prediction Model 的,Capability 之前,就是這些 Large Model 的 Capability 之前,我們所謂 Deep Learning 的 Capability,然後我們以前這種深度學習的這種 Capability,以前的話基本上都可以說是,還是一種 Pattern Recognition 的 Machine,它是比較深層的,用深層的這個神經網路去做 Pattern Recognition,但是它還是屬於 System 1 Thinking,就是所謂的這種比較,更像是 Pattern Matching 的這種 Thinking Pattern,那我們後來開始用語言來模擬世界,然後造成它能夠做基本的思考,用 Chain of Thought 來做基本的思考,我在 2023 年、2024 年的時候就已經說過了,我就跟大家講說,Chain of Thought 加上 Fine Tuning 加上這個 Next Token Prediction,似乎是 The Beginning of Reasoning Machine,也就是所謂的 System-2 Thinking,就是 Tversky,Kanahan 講的啦,不是 Tversky,因為 Tversky 不幸的已經走了,所以 Kanahan 在後來他寫的一本書裡面叫做 Fast and Slow Thinking 裡面,就提到這個心理學裡面已經講過很多人都知道的事實,就是 System 1 跟 System 2 Thinking,所以這種 System 1 這種 Fast Thinking,Intuition Based, Pattern Recognition Based,System 2 的這種 rational, follow the pattern,然後會反思的,會 rationally 去 explore 一個 concept 的這種思考行為,我們現在目前的為止是一直在探索怎麼樣子能夠讓機器能夠做更多的 System 2 Thinking,因為之前的 Deep Learning 已經做到 Deep...,這個 System 1 Thinking 已經做得非常的深了,但是現在發現的就是說,用這一種 Transformer 的技術,能夠做到把 System 1 和 System 2 融合在一個系統中,融合在一個模式中,那這種融合非常有可能就是 AGI 的開始,而且我個人認為,AGI 這個概念原本就不是非常的完美,如果我們用另外一個方法來看這個東西,就是說 System 1 and System 2 的 Integration,是 AGI 的 Definition 的話,那我們已經開始做到這件事情了,對。 **VK:** 哇,OK,我其實也沒有想到,今天的這一集會這麼多心理學的內容,但我覺得蠻有趣的就是,因為過去有很多心理學相關的經驗,然後在看這件事情的時候就發現,其實是可以串起來的,然後其實很常會聽到說,AI 出現之後會有兩種說法,一個是很容易讓人思考外包,然後另外一種就是說,它其實是可以增強我們的人類智慧,那你會怎麼樣去看待這兩種說法,然後你會怎麼樣去幫助自己透過 AI 學得更好,思考更好? **(00:16:41,640) AI 如何增強而非取代人類智慧** **紀懷新:** 我覺得事實上有一個事情,大家可能沒有意識到,就是說,為什麼後來這個 Kennehan 會講 System 1 跟 System 2 的事情,事實上是因為,在某種程度上,人類的頭腦在做 System 1 的時候,是不需要花很大的能量的,像譬如說我們現在坐在這裡,呃,我們看著這個這個東西,我們把它叫做麥克風,你根本不需要經過任何思考,你看到它,你就知道它是麥克風,你看到這一瓶水,你就說這是茶,這是水,你根本沒有用很大的頭腦的腦力去想這些東西,這就是所謂的 System 1,但是如果我問你一個很困難的問題,像譬如說你覺得,呃,什麼是 AGI 的定義,你肯定要用很大的腦力去想,我應該這樣回答還是那樣子回答,這個就是所謂的 System 2 Thinking,對不對? **紀懷新:** 那從我們人類在 Explore 這個 Intelligent 這個角度來看的話,之前我們要 Replace 一個人,With Machines,那你 Replace System 1 這種很 Low Energy 的東西根本是,是有它的 Value,但是它的 Value 不見得會那麼高,反而是 System 2 這種 Problem,當時我們沒有辦法做,但是如果能夠幫助人們來做 System 2 的 Thinking,那那個 Value 可能更高,因為它是更花腦力的東西,所以這兩三年來,為什麼大家對大型語言模型,或者是大型模型 In general 的這種 Development 會那麼的,Surprise,那麼的覺得驚訝跟 excited 的原因,就是因為他已經在開始輔助人們,這一種非常 high value,非常 high energy 的 thinking pattern,那你自己會怎麼樣去超過 AI,來幫助自己在 System 2 這件事情做得更好? **紀懷新:** 像我給你舉昨天的一個例子,就是很好的例子,我們昨天在一個論壇上面,然後我用手寫了很多筆跡,然後這個筆跡很潦草,然後我就用 Gemini,然後拍了一張照片,然後第一先給他很簡單的看了一下,今天講座的那個題目是什麼怎麼樣,然後讓他看了我的筆跡,然後我就直接問他說,你可以幫我的筆跡重新重寫一份,然後更好地整理他一下,出來那個 result,就是讓你會覺得非常的驚訝,他居然能夠做到,就是連我寫錯字的地方他都可以改,就是因為我現在中文寫字,我不曉得多少人現在還用筆寫字,不過我那個字寫的滋潦草,然後有些中文字又寫的亂七八糟的,他都完全看得出來我在講什麼東西,甚至於他會去找一些文獻,來 support 他的論點,我就覺得這個,他這個,而且就是一兩分鐘的事情,他就做到了,嗯。 **VK:** 我覺得這一個說法可能是 maybe 是兩個都存在,就是某種程度可能會讓人思考更容易外包給 AI,但是同時,我覺得他也會增強到人類的智慧,就實際上我覺得在,比如說在準備這次的訪港也好,或者是在做其他的這種研究,我都覺得 AI 幫助我在學習這件事情上面更有效率的原因是因為,我覺得他在幫我去找到關鍵問題的時候是更容易的,就比如說,呃,其實,在準備今天的訪綱之前,我有再準備一份,然後實際上是我在今天早上的時候看到了 Herbert Simon 之後,我就決定全部要大改一次訪綱,所以就是這一,找到這種關鍵點,然後他讓我變得更有效率,就我,我會想到,呃, Donald Hubb 他有一個理論叫做 Fire together, wire together,就是他,我覺得在 AI 時代當中好像這件事情更容易發生,就是某種程度呼應你剛剛前面提到的,就是它會讓人家更有探索性的去看到各種學習之間的可能性,不知道你會不會有這樣的感覺? **(00:21:02,640) AI vs IA 辯論:人工智慧與智慧增強的哲學思考** **紀懷新:** 嗯,你知道有一件事情就是在,前一個 AI 的時代,就是在這個神經網路之前的一個時代,我們叫做 Symbolic AI 的時代,那時候大概 70 年代,特別是 70 年代那時候,在 Stanford,就是我們剛剛在講的 Xerox Park 那附近,在 Stanford 的時候,就有一個很大的 debate,他們叫做 AI vs. IA debate,那這個 AI vs. IA debate,AI 當然就是 refer to Artificial Intelligence,那 IA 的話呢,他講的是 Intelligence Augmentation,所以什麼叫做 Intelligence Augmentation 呢,意思就是說,我們的人腦有限,但是有沒有可能增強它的 capability,那 Douglas,剛剛講的那個 Douglas Engelbart,他在做的東西就是 intellectual augmentation,還有 Vannevar Bush 他在 Atlantic Month 裡面寫的一個非常 influential 的論點,那篇文章叫做 As We May Think,那篇文章如果沒記錯,甚至於就是第二次世界大戰剛結束的時候,1945 年左右,我如果沒記錯的話,網友們可能幫我 Google search 一下,呃,他寫的論點也是跟 intelligence augmentation 有關,而且那一篇 paper 為什麼後來那麼的,嗯,influential 也是因為他預測了像譬如說 hypertext 啊,這種 search engine 啊,這些 concept,嗯,所以,嗯,回到剛才講的這個部分,就是說,嗯,我們現在這個 AI 的 technology,事實上已經有很多人提出就是說,它事實上是一個 Intelligence Augmentation 的一個 capability,那它可以幫助我們整理筆記啊,它可以幫助我們更好的、更有效率的把我們該做的事情把它做好,而且做得更精準、做得更 complete,所以我自己現在在 office 裡面工作的時候,也常常會就是用 Gemini 來幫我做得更快,這樣子我的 free time 也比較多,或者是最起碼做起來會覺得更有效率。 **VK:** 那你會怎麼樣區分就是,什麼事情是你要自己做,然後什麼事情是 AI 做? **紀懷新:** 我覺得這個東西有一件事情,嗯,是很根本的,就是說,大部分人都還是希望自己有一個主導權,所以這個 AI vs. IA 的 debate,事實上當時在 70 年代、80 年代的時候,他真正的,甚至於 90 年代都有人在聊這個話題,他最根本的問題就是,叫做這個主導權,也就是 Autonomy 的 問題,就是說是誰在主導這個 Machine 的這個 Creativity,那所以他更像是一個 Employee of you,就是說他是在幫助你工作的,然後但是人是在主導說我要走這個方向還是那個方向,當然他也可以 suggest 一些方向,所以這個 autonomy 的問題是目前為止,只有一些學術上的會議會比較聊多一點這種話題,但我個人認為目前為止,特別是如果你去這個 machine learning 的 conference 的話,大部分沒有人在聊這個話題,但是如果你去,像比如說 HCI 的 conference 啊,SIGCHI 的 conference,很多人在聊這個問題呢,嗯,懂,就是反正,呃,基本上可以加快速度的事情,你可能都會要 AI 一起做嗎? **紀懷新:** 對,我覺得現在,呃,這個整個 AI vs. IA 的這個 debate,事實上是,是時候我們再重新啟動它,那,呃,像 Demis,呃,跟我都在,呃,很 public 的地方都有聊過,我們一直想要做的是這個 Personal Digital Assistant,像 Project ASTRA 這樣子的一個 Project 計畫,它最根本的原因,為什麼叫它叫做 Intelligent Assistant 或 Universal Assistant,原因就是因為我們的 Perspective 更像是這個 Augmenting Human Intellect 這樣子的一個 Concept,對。 **VK:** 那 DeepMind 的目標是建立一個真正理解物理世界原理的世界模型嗎?就是這包含了物理結構啊,物體運作,還有一些生物行為,那為什麼建立這種世界模型會對於實現 AGI 是這麼重要的? **(00:25:49,840) Project Astra:情境感知的智慧助理願景** **紀懷新:** 就像剛剛聊的那個 Project ASTRA,我們的想法就是說,我覺得這個地方就跟我們剛剛講的這些歷史很有關係,因為我們之前在做 Symbolic AI 的 research 的時候,根本那個時候根本沒有想過說,任何的模型是能夠跟我們人類在同一個,不是虛擬的世界裡面,同時一起跟著我們一起並行,像 Project Astra 它原本的名字,這個 Project 原本叫做 SIA,SIA 的意思就是 Situated Intelligent Assistant,所以 Situated 這個字在英文裡面意思就是說,它是跟我們同步的,在我們同一個 environment 裡面,在同一個情景裡面的,所以意思就是說這個 assistant,他能夠知道我在什麼樣的一個情景,像比如說,剛才我們從一個 building 裡面出來,然後看到他在下雨,如果有人問我說你有沒有雨傘,那這個 assistant 應該,即使是我的手機上面的一個 digital assistant,也要了解說,因為是在下雨,所以這個人才會問說你有沒有雨傘,這樣子的叫做 situated,他如果不知道的話,為什麼這個人要問你有沒有雨傘,是因為要遮陽嗎?對不對?那你就是不了解現在的這個情景,所以我們意識到這種大型模型,能夠做到這些 multi-modality 的,多模態的這種 processing 的時候,就意識到說,這些模型事實上是可以了解我們的情景的,所以這個 context understanding 這個部分,可以說是這一兩年來,我們才發現能夠做出這樣子的東西,所以就變得非常的神奇,你知道嗎? **紀懷新:** 我大概一年前吧,對,差不多剛好一年前,我就因為我的手機上面有 Project Astra,這是當然是當時是一個很 confidential 的一個 project,我把手機帶到,呃,帶到 Barcelona,在那邊開會,然後我們一大堆同事在巴塞隆納的一個旅店的 Rooftop Bar,一個很漂亮的一個地方,然後他 overlook 整個這個 City,然後我就把 Project Astra 拿出來,然後我就 Scan 那個 City 的那個 Horizon,我就這樣 Scan 了一下,然後我就問 Project Astra,我說你知不知道我在哪裡,他說 It looks like you are in Barcelona,然後我就很驚訝說,你居然 situate 到能夠知道我在哪一個市,然後我繼續問我就說,OK,那你知不知道我在巴斯諾那的哪一個 district,哪一個地區,然後他說你在聖馬丁的 district,然後我再問他說,那你知不知道這附近有沒有什麼好的餐廳,special bonus points if it has a Michelin star,然後他又告訴我,剛好那邊就只有一家 Michelin star 的 restaurant,他也回答了,他說,那你可不可以給我一個預約?然後他說,不,我現在不能做到,但未來我可能可以,這個就是我們所謂的 Situatedness,就是他這種助理已經不是,就真的像是一個人的助理在你身邊,然後你可以問他說,我今天晚上有興趣吃晚餐,我可以給你一個預約嗎? **紀懷新:** 所以我們從那個時候,就意識到說,這種私人的助理,在你手機上可以運轉,是絕對是在我們有生之年可以做到的事情,而且感覺非常的近,就是可能這幾年我們就可以把它做出來,所以我們就加快馬步,繼續往前衝。 **VK:** 那比如說,我們剛剛提到 Project Xtra,然後結合智慧眼鏡這件事情上來說,對 Google 而言,有哪一些比較重要的優勢嗎?因為其實現在蠻多的科技巨頭也開始加入智慧眼鏡的這個行列當中,嗯。 **(00:42:16,160) Google 在智慧眼鏡上的優勢** **紀懷新:** 我覺得我們的優勢有好幾種吧,嗯,第一個是,你看我們,我剛剛細數的一些 research,事實上有很多,從 2015 年的 Sequence to Sequence Learning,所謂的 Sequential Transduction 的這些 Idea,然後到 2017 年的 Transformer 的 Idea,然後到後來我們 Lambda,Chatbot 的 Development,到剛剛講的 Chain of Thought,Post Training 這些東西,一直這種 Research 的基礎都打得非常的好,所以我們的這個整個的公司的研究的文化,事實上是一個很長遠的一種策略性的方法在進行,所以從這個角度來講的話,我們的那個研究的精神事實上是非常深遠的,這是我覺得我們比較獨特的一個公司的文化吧。 **紀懷- 新:** 那麼除了那個之外的話,就是像剛剛講的,我們會比較屬於從真實的世界去想,真實的一些功能或者是 task,我們覺得能夠造福人的使用情境,所以我們的這種產品的開發,也都是以這個準則在進行,所以我們的研究跟產品的開發,剛剛好在這上面,可以說是結合的非常的好,這也是我在看,就是應該自家的時候,我覺得最有趣的地方,因為 Xerox Park 是一個很常被受到批評的地方,是他們的基礎研究做得很深,但是他們商專不夠,所以最後有一些產品跟創新,是沒有在他們的產品上面,但是在 Google 來說,就是很多時候可以回去看到,這些基礎研究是做得很深刻的,然後同時把這樣子的創新放在產品上面,嗯,對,所以這是,對,我本來要問這一個問題,但是你自己把它解釋完了,對,我是覺得是說,我們因為,嗯,一直想著我們 Google 的這個 mission,事實上都很多人都能夠背出來了,不只是公司的員工都能夠背出來,我們一開始就是說,Make the information organized and useful for everyone,這樣子的一個 concept,所以從這種務實的角度開始的話,我們自然而然很多研究的方向啊,產品的開發都會跟這個 mission align,所以這是基本的 value,然後我們也對用戶就是說,這個 user is number one,make user first 是這樣子的一個 concept,也讓我們是一個比較務實的公司。 **VK:** 那就是在 AI 發展當中有一個重要的趨勢,就是把模型做得更小更有效率嘛,因為它可以被整合到可穿戴的裝置當中,那你認為就是在台灣的供應鏈當中,在 AI 浪潮可以找到哪一些獨特的機會? **(00:45:27,100) 小模型的崛起:Edge Computing 的新機會** **紀懷新:** 這個問題問得非常好的其中一個原因是因為,很多人沒有意識到,大部分人在,特別是在這方面也做研究的人,常常在講的 Scaling Law 是在講最大的模型,它的 capability 有怎麼樣子的不斷的提升,所以我們叫做這個 Large Model 的這個 Scaling Law,但事實上有另外一個 Scaling that's happening,那很多人不知道,就是說我們每一次發表,最好最大的 Model 的時候,通常那個中小的模型,是前一代大模型的 capability,那這個代表就是說,每一次大的模型出來了以後,中小的模型跟上一期的大模型的 capability 是一模一樣的,那如果這個 skilling 繼續往前走的話,我們以後更大大型的模型,它的 capability 雖然是很好,但是以後的中小模型將會是,甚至於現在最大的模型的 capability,對不對? **紀懷新:** 所以就是這個會繼續,如果繼續下去的話,事實上對往前走,不要說是台灣的這個供應鏈,對整個 industry development 都會有很大的影響,為什麼呢?因為這個意識的代表,非常有可能 undeviced AI 的 model,以後都會有很厲害的 capability,那在這種情況下的話,手機甚至於可以跑很好的 model,或者是筆電,當然這裡面還有很多問題需要解決,像比如說 battery 的問題,還有算力的問題,這都還是問題,但是基本的這種 research 的 capability,我們現在是已經相當的清楚,第一有這種 quantization 的 capability,我們把一個大模型讓它變得更 cheap to serve,然後另外一個的話是我們用 Distillation 的 capability,把大模型的 capability 把它注入到,增流到中小模型裡面去,所以現在這個趨勢是 continue 的,所以非常有可能再過一年、兩年、三年,那些 model 的 capability,就跟我們現在最大的模型的 capability 一模一樣,那如果是這樣子的話,這種 Edge computing 的 application 會更多,所以這也是不管是台灣或者是全球的供應鏈當中來說,都是一個蠻好的機會,沒錯,而且這件事情大概,一年前在,我忘了好像是在哪一個 event 的時候我就有提出就是說,我們應該要很密切地觀察這個趨勢,特別是在台灣的供應鏈上。 **(00:49:00,220) 年輕研究者的建議:不需要大算力的研究方向** **紀懷新:** 當這些大模型的這個開發的方法,大家在看那些 paper 出來的以後,這些論文的出來的以後,就會有很多 copycat,大家都想要去,喔,那我也想要試試看做那這個 paper 裡面寫的東西,當然你要了解裡面的東西是沒有錯,但是你知道嗎?我覺得很有意思的地方就是說,大家會開始 complain 說,那我算力不夠啊,我怎麼樣子做這方面的 research,但是你知道嗎?我們當時像比如說做 Chain of Thought 那篇文章,我當然我是其中作者之一,但我可以說那篇文章非常的有影響力,但是你知道我們用了一共多少的算力嗎?大概也就五千塊錢美金的算力,因為那個問題並不是用算力能夠解決的問題,而是說它是另外一個思考的模式,所以我們當時在做那個 research 的時候,剛開始的時候基本上就是沒有經費,就是我們自己憑空想出來的東西,所以而且那個 paper 在講的事情就是,怎麼樣子讓我們的大模型,能夠有推理跟推測的 capability,這個部分的 research,我事實上回來台灣這麼多年,每次都有講,但是都沒有看到台灣的研究工作者,在這方面做更深入的 research,事實上是有很多 opportunity 的,這是一件事情,另外一件事情我覺得可以深入聊一下的話,就是說很多人事實上並不知道,我們現在目前為止的這個 development 的模式,能不能夠做到能夠做多遠,那如果说我们已经看到一个 plateau 的话,那么再过来事实上更重要的事情是怎么樣子把这些大模型的 capability 让它落地,能够在一些真正的这个真实世界里面的 application 能够连接起来,那在做这方面的 research 的人事实上也不多,就是所謂我們叫做 apply,就是把這個 model applied 到 downstream application 這個東西,當然 VC 就是 Venture Capital 有在做很多的這個 investment,但是比如說大專研校裡面的 researcher 或者是公司裡面的 researcher,這方面事實上做的都不多,然後第三的話我會覺得就是說,我們在做 Chain of Thought 的東西跟 post-training 的東西,現在也是最火熱的一些研究方向,事實上它最根本的問題,事實上是想要跟我們剛剛講的,這個我們真正使用場景的一個對齊,所謂這個對齊,就是對齊的問題,那這個對齊的問題是對於什麼,對於人類想要的東西,對於用戶想要的東西,所以 AI 的安全跟 what user wants,事實上是從這個 research 的角度,它是同樣的問題,就是都是 alignment 的問題,都是對齊的問題,所以在這個部分,事實上在台灣的大專院校裡面,或者是公司裡面的 researcher,不用很多的 chips 都可以做的 research,所以這三點我是覺得就是說往前走,怎麼樣子去做這方面的研究的話,是這個 direction 非常好的一些 research direction,大家都能做,不需要很大的算力都能做的東西,但是就是不用這麼大的算力這件事情,其實在有一個前提是,你其實接觸了很多認知心理學,就是你有一點是從其他領域當中,然後再回過頭來再看 computer science 這個領域,就是我不知道你有沒有看過一本書,叫做 Why Greatness Cannot Be Planned,然後,呃,我覺得在聽你整個的敘述的時候,會讓我想到那本書,就是,呃,你有點是說,不是做出一個很偉大的研究為一個目標,而是說在這個過程當中,你持續不斷去找到一個你好奇的東西,然後把這樣子好奇的東西,放在 computer science 當中,然後最終解決了一個問題,然後它就是一個 Channel of Thought 的論文,可以這麼說嗎? **紀懷新:** 我,我會覺得說,作為一個研究工作者,我一直覺得我自己,數學能力啊,或者是一些,呃,耐力,可能沒有其他我,嗯,同窗的同學那麼厲害,嗯,他們耐力,或者是說算力,他們的頭腦的算力,而不是說電腦的算力,都比我要強,然後,我一直,有時候會,跟,呃,學校裡面或公司裡面的,呃,同事或是同學們開玩笑就是說,我一直會覺得用英文講的話就是說,I'm a,a generalist,然後呢,就是 master of none, jack of all trades, but master of,但是當我意識到我自己的數學沒有比其他人好的時候,我就覺得說也許我可以做一些其他的 research 是更像是一種 bridging 的 research,就是一個領域跟另外一個領域之間的這種 bridge,就是這樣子的 research,所以我後來那個,剛剛的那個故事,Danny Zhao 是我 team 裡面的一個 researcher,他當時加入我的團隊,然後他就跑來跟我講說,我想要做 reasoning 這個方面的 research,然後他在我團隊之前,他做 reasoning 的時候,是用一個比較 traditional 的 technique,叫做 neurosymbolic approach,就是最近都有人在提,重新提出這個 idea,用這種方法來做,然後我就跟他聊了一下,我就覺得說,我跟他講,可以算是相當誠實的想法,因為我看那篇 paper,我都看得懂,但是覺得,感覺就是有點怪怪的,然後我就跟他講說,我覺得 Neil Sembaw 的這個 approach 好像不大 work,我們是不是考慮用其他的方法,然後他因為那個原因才真正就是,就是有去,他就開始思考其他的方法,然後我們才慢慢的討論,然後發現說,喔,也許可以用這種 Schemata 的這種 concept 來做這個東西,所以那五六個月吧,我想想看,大概三四個月,五六個月,就經過很多不同的探討,就後來發現說,這種比較 template-based 的 capability,可以 change 這個 auto-regressive model,這種 greedy decoding 的這種,這種,很簡單的這種思維的這種走路的方式,走向的方法,所以這個就是,從,我覺得從 hindsight 來看的話,就是一種革命性的另外一種想法,那所以我覺得很多 research,事實上是不需要去鑽牛角尖的,而是可能要從另外一個方法,去另外一個 point of view 去想問題的根本,所以這是後來我發現我自己的興趣吧,就是跟人家有點不一樣,因為我數學太差了,那你可以多講一點就是關於 bridge 的這一段嗎?因為我知道你在其他的節目當中有提到 bridge point 的這個想法,然後可不可以再跟我們分享一下? **紀懷新:** 呃,你問這個東西事實上講起來還挺有意思的,為什麼呢?因為剛剛講 2007 年是 mobile phone 的崛起,事實上他也是大概 2006 年、2007 年那一段時間,還有另外一個事情的崛起也是非常大的一件事情,那就是 social media,那我當時大概 2006 年、2007 年的時候,是沒有在做 mobile phone research 那邊的東西,而是在做 social media 的 research,那當時我看了一本書,是一個 University of Chicago 的一個 Professor,他好像是在 Economics Department 還是在 Business Department 裡面的一本書,他這個人叫做 Ronald Burt,然後他寫了一本書,事實上是兩本書,他講了一個事情叫做,他提出一個想法叫做 Brokerage,他所謂 Brokerage 的意思就是說做兩邊的 Brokerage,什麼叫做 Brokerage?像我們英文裡面說 Real Estate Brokerage,Brokerage 的意思就是說中間人的意思,他提出來的一個 Concept 叫做 Social Capital,還有叫做 Brokerage,提出的 Concept 就是說很多人事實上他的價值,在一個社會裡面的價值,或是在一個公司裡面的價值,或是在一個團隊裡面的價值,他的價值就是在牽線,然後,所以我是因為那個契機學到他的一些 concept,他算是社會學跟也許是可以說是 economics 那方面這樣子的一個學者,然後因為那個原因我就覺得說,也許我可以做更多這種 bridging 這種 brokerage 的研究,所以我後來像很多的選擇,呃,就是工作上面的選擇,研究上面的選擇,都會走那條路,當然在上面也受了不少苦,因為,當你在做這樣子的事情的時候,你有點在 Feel A 裡面,你不是真正的人,然後你在 Feel B 裡面,也不是真正的研究者,就是做 A 也不對,做 B 也不對,你以為你是同時是 A 跟 B,呃,所以,呃,就是不同的路吧,呃,但是我覺得後來,呃,譬如說像 Chain of Thought 這樣子的 development,或者是後來的其他一些想法也是因為這個原因。 **VK:** 了解,那我們就今天謝謝 Ed 來跟我們聊這麼多,謝謝,掰掰。