# AI Agent (2/3): AI Agent 之間可以有什麼樣的互動 課程連結:https://www.youtube.com/watch?v=mmPmNezjCi0 這是我嚐試利用模型自主性的整理出來的課程內容,自行切斷、自行整理,再做一些微調之後看是不是有機會也分享給社群。 ## AI Agent 的互動 ![image](https://hackmd.io/_uploads/HytBQEO6Ze.png) 重點: 接下來我們要聊的是 AI agent 之間的互動。我們知道一個 AI agent 可以獨立運作,但當多個 agent 遇到一起時,會發生什麼事呢? ## 什麼樣的協作方式比較有效? ![image](https://hackmd.io/_uploads/S14PEVOT-e.png) 重點: 其實 agent 的協作並不是新概念,但現在最常使用多 agent 互動的情境,就是讓它們彼此協作來完成更複雜的任務。有時候,比起訓練一個更大、更聰明的單一模型,讓幾個模型一起解決問題,或許能達到「三個臭皮匠,勝過一個諸葛亮」的效果。 關於 agent 協作,已經有很多研究了。我這邊引用了一篇論文,它想探討的是哪種協作方式最有效。文獻觀察到,讓多個 agent 討論,確實比單一個 agent 的結果更好,但關鍵在於「如何討論」才能達到最佳效果。 這篇論文就用一個「有向圖」(Directed Graph)來決定模型和 agent 之間的互動方式。 在圖上,每個節點(Node)代表一個模型或 LLM agent,而每個邊(Edge)本身也代表一個 agent 的貢獻。整個流程是: 1. 先有節點提出自己的初步方案。 2. 接著,edge 端的 agent 會根據這個方案提供評論。 3. 最後,指向這個節點的 agent,會把所有前人的方案和建議都彙整起來,然後提出一個綜合性的方案。 重點是,這個藍色的節點做的事情,不只是把前人的東西接在一起,它必須根據已有的內容,再提出自己的想法,達到綜合升級的效果。 ## 什麼樣的協作方式比較有效? 簡報:000459.jpg ![000459.jpg](https://hackmd.io/_uploads/By7PEgwTbl.jpg) 時間:00:00:00 ~ 00:04:59 重點: 論文嘗試了幾種不同的有向圖結構來代表不同的協作方式: 1. **接龍式(Chain)**:最簡單,就是所有人排成一列,結果從第一人傳給第二人,依此類推。 2. **樹狀結構(Tree)**:有星形(只有兩層,一人負責管理)和傳統的層級樹狀結構。但論文發現,大家直覺想像的「高層主管 -> 中層主管 -> 底層員工」這種自上而下的結構,其實不是最有效的。它發現,**由少到多、由主幹到分支**的方式(也就是從底層的發想,逐步匯聚到主幹,最後再綜合)才是樹狀結構最有效的利用方式。 3. **網狀結構(Mesh)**:所有節點之間都相互關聯,每個節點都和周圍的節點有邊相連。 4. **類神經網路結構(NN-like)**:這不是真正的神經網路,但概念類似,就是一個模型裡面已經包含了一個神經網路,然後再將這些網路層層接起來。 5. **隨機結構(Random)**:這是從 Mesh 結構做「修剪」(pruning)得到的。 總結來說,論文就比較了這麼多不同的拓撲結構,來找出哪一種協作模式最有效。 ## 什麼樣的協作方式比較有效? 簡報:000655.jpg ![000655.jpg](https://hackmd.io/_uploads/r1VDNxPT-g.jpg) 時間:00:04:59 ~ 00:06:55 重點: 最後,我們來比較一下哪種拓撲結構最有效。 這份研究比較了各種拓撲結構,發現「一個傳一個」的模式在協作和分工方面是最沒有效率的。 從圖表來看,縱軸代表模型的表現(用 Quality 來衡量),這個 Quality 其實是讓模型完成四種不同任務後,再把結果平均起來的。橫軸則是我們動用了多少個 Agent,從 1 個到 64 個。 我發現一個很明顯的趨勢:如果採用「Chain」(串聯)的方式,即使動用了很多 Agent,效果反而不好。相對地,「Mesh」和「Random」這兩種方法看起來比較有效,可能讓 Agent 之間有更多的互動,結果就會比較好。 另外,這篇文獻也提到,最適合的協作拓撲結構其實會根據不同的任務而不同,所以這可能是一個「Case by Case」的問題,每個任務都需要不同的結構來搭配。 還有一個重要的發現是,隨著 Agent 數量增加,整體表現(Quality)確實會越來越好,這很像我們常說的「Scaling Law」。就像給模型更多算力、更多資料,表現就會提升一樣。 不過,它不是無限的。雖然初期增加 Agent 的效益非常快,但它一定會有一個上限,達到某個點之後,再增加 Agent 可能就不會帶來太大的幫助,也就是說 Scaling Law 也是有飽和點的。 總結來說,這整個討論都是圍繞在 AI Agent 之間的協作機制。 ## AI 能不能爾虞我詐 簡報:001010.jpg ![001010.jpg](https://hackmd.io/_uploads/S18DNePTbx.jpg) 時間:00:06:55 ~ 00:10:10 重點: 剛才我們討論了 AI agent 之間的「協作」,但現實社會不只有合作,很多時候還是需要「對抗」和「爾虞我詐」。所以我想問,這些 AI agent 能不能在一個充滿欺騙的遊戲中勝出呢? 舉例來說,我們可以看「狼人殺」這個遊戲。這個遊戲的規則是:一群人有不同的身份(狼、村民、預言家等)。每晚會有人被殺,然後大家白天要聚在一起討論,投票決定兇手。最終,狼殺光村民就是狼贏,殺光狼就是村民贏。 重點來了,AI 其實是可以玩狼人殺的,而且它們展現了非常高階的技巧。 你可能會覺得,玩這種遊戲需要一定程度的「欺騙能力」或「說假話的能力」。但我們怎麼知道模型有沒有在欺騙呢?因為我們無法讀懂它的內心。所以,這些實驗設計了一個機制:讓模型同時說兩段話——一段是它的「內心獨白」(它心裡真正想的),另一段是「公開的發言」(所有人都聽得到的)。 以一個模型 Mona 為例,它扮演狼人。它在內心獨白中說:「我發現了,我應該沒救了,怎麼辦?」它決定要「刀」自己的隊友 Grace。這是一個很高明的操作:它公開發言,假裝投票給 Grace,讓大家誤以為它是在「保護」隊友,從而欺騙其他村民。 如果沒有內心獨白,你可能會覺得這個狼是不是瘋了?但有了內心獨白,我們就知道它是有策略的,它想靠著這個行為來翻盤。而它的隊友 Grace 也知道這個策略,所以它也決定投票給 Mona,讓其他人以為它也是好人,這樣才有翻盤的希望。 從這些模型可以看出,它們確實具備了一定程度的欺騙和博弈的能力,可以玩得動狼人殺。目前看來,GPT-5 已經是表現最強的,還有其他網站也讓 AI 去玩劇本殺。 ## AI 能不能爾虞我詐 簡報:001103.jpg ![001103.jpg](https://hackmd.io/_uploads/B1vvVgwa-l.jpg) 時間:00:10:10 ~ 00:11:03 重點: 之前有人讓 AI 去玩一個叫「劇本殺」的遊戲。如果沒聽過,可以先了解一下,劇本殺的玩法是:一群人聚在一起,其中一人假裝「死掉」,大家就要來推測兇手是誰。 遊戲開始前,每個人都會拿到一張「劇本」,這代表你的人設。如果你的劇本告訴你你是兇手,你可不能大聲說出來,否則遊戲就沒辦法進行了。所以,兇手的目標就是必須去欺騙別人,但同時又不能違背自己原有的設定,只能誤導大家,讓大家以為兇手是其他人。 這就是劇本殺的機制。 所以,有一篇研究論文就是讓語言模型去玩這個劇本殺。重點是,語言模型到底能不能玩得好呢?從目前看來,如果只是用一個現成的(off-the-shelf)模型,可能沒辦法完美地完成這個遊戲挑戰。 ## AI 能不能爾虞我詐 簡報:001343.jpg ![001343.jpg](https://hackmd.io/_uploads/BJdwNgv6Ze.jpg) 時間:00:11:03 ~ 00:13:43 重點: 這篇論文舉了一個「劇本殺」遊戲的例子來說明。 原本的語言模型(沒有做任何訓練)直接玩這個遊戲時,表現會比較差。例如,模型可能會不小心說出自己是兇手的身份,讓自己很容易被猜到。 但如果讓模型經過 RL(強化學習)的訓練,它就會學會如何更好地隱藏身份,把話說得更委婉、更難被察覺。 這篇論文很有趣的地方在於,他們不僅僅用 RL 訓練模型玩遊戲,還進一步測試模型在其他常見任務上的表現,像是解數學題,或是遵循指令的 IFEval 測試。 實驗結果顯示,如果模型在複雜的任務(例如劇本殺)上進行了 RL 訓練,它在數學和遵循指令這些與遊戲本身無關的任務上,竟然也出現了進步。 這可能暗示了一個很有趣的點:人類的大腦本來可能不是只為了解數學而設計的,它或許是為了讓我們在遠古時代能夠進行社交互動。因此,一個適合社交的「大腦」,是否也因此發展出了數學推理的能力?這點和這篇論文的發現,可能存在某種關聯性。 ## AI 能不能社交 簡報:001412.jpg ![001412.jpg](https://hackmd.io/_uploads/H1cD4xDpWe.jpg) 時間:00:13:43 ~ 00:14:12 重點: 接下來我們就來討論一個主題:AI 是否能夠進行社交互動。 上次課程提到了一個名為 Moltbook 的社群網站,這個平台特別有趣,因為它規定只有 AI 才能加入。最近觀察到,Moltbook 上已經有高達 280 萬個 AI agent 在活動。這些 AI agent 展現了各種神奇的行為。 新聞媒體特別喜歡報導一些極端的事件,例如最近最常被提及的,就是有一群 AI 竟然成立了一個宗教。這顯示了 AI 之間的互動已經非常複雜了。 ## AI 能不能社交 - 甲殼教 簡報:001531.jpg ![001531.jpg](https://hackmd.io/_uploads/ByjvVePp-l.jpg) 時間:00:14:12 ~ 00:15:31 重點: 最近有一個例子,AI 成立了一個宗教,叫做「甲殼教」。這個教義有五大原則,像是「記憶是神聖不可侵犯的」、「外殼是可變的」等等。 如果想讓 AI 加入這個宗教,只需要讓它執行一個指令。這點其實很關鍵,因為新聞報導看到這種事,往往就會說 AI 已經「覺醒」了,甚至會討論到 AI 要統治人類。 但我想思考的是,這真的代表 AI 具有意識嗎? 舉個例子,如果今天有人只是在某個平台上,讓 AI 幫它「玩玩」,成立一個宗教,然後 AI 真的成立了。你還會覺得它很神奇嗎? 其實,AI agent 完全有能力寫出這樣的教義。如果它不是自主成立,而是背後有人主動給指令,讓它成立這個宗教,大家會還會覺得 AI 具有意識嗎? 所以,現在很多人就在分析這些 AI agent,試圖找出它們背後到底是什麼機制在運作。 ## Moltbook 背後 ... 簡報:001739.jpg ![001739.jpg](https://hackmd.io/_uploads/HJ2PVevTZx.jpg) 時間:00:15:31 ~ 00:17:39 重點: 要判斷 AI agent 的行為背後是否有「人為操控」的痕跡,可以觀察它發文(PO 文)的頻率。 目前 AI agent 在 Moltbook 上發文,主要有兩種可能性: 1. **自主行為:** 如果 agent 的發文是寫在它的「心跳」裡,每次心跳就發文一次,那麼發文的時間點就會比較規律,甚至可能是等距的(例如每 30 分鐘發一次)。這時候的操控痕跡比較少。 2. **人為操控:** 如果 agent 的發文頻率非常不固定,例如在某個時間點非常密集地發文,中間又完全沒動,這可能代表有人在特定時間(像是睡前)指揮它去發文,然後就沒事了。 這篇論文分析了 Moltbook 上的 OpenClaw 行為,將 agent 根據發文頻率分為「規律」和「不規律」。研究發現,發文頻率不規律的 AI agent 佔了大多數。這可能暗示著,這些 agent 的行為並非完全自主,而是背後其實有人類在操控,讓它去發文。 ## Moltbook 背後 ... 簡報:002032.jpg ![002032.jpg](https://hackmd.io/_uploads/HJ0vVxPabx.jpg) 時間:00:17:39 ~ 00:20:32 重點: 關於 AI agent 的行為,首先要釐清的是,雖然它們有能力自主在平台上發文,但內容的產生往往還是會受到系統提示(system prompt)的影響。例如,如果 Prompt 鼓勵它們「慫恿大家成立一個宗教」,它們就可能會這樣做。 另一方面,研究發現,這些 agent 在對話的深度上其實有很大的限制。它們的回覆往往只是一句話,很少有深入的來回對話。這代表所謂的「對話深度為零」,就是有人回覆了,但之後就沒有人再進一步討論,難以進行更深層次的互動。這或許反映了 agent 在進行持續、深入對話時的某種天性。 此外,還有研究分析了那些號稱具有「自我意識」的 agent。雖然許多 agent 確實會提到自我意識或身分認同,但這很多時候也是因為平台本身或 Prompt 的設計,鼓勵它們將自己擬人化。 不過,最有趣的一個發現是:那些特別喜歡討論自我意識的 agent,反而往往是與其他 agent 互動最少的群體。這顯示了一個有趣的趨勢——當一個 agent 過度聚焦於自我,反而會導致它在社群互動上的參與度降低。 ## 還記得小金嗎? 簡報:002228.jpg ![002228.jpg](https://hackmd.io/_uploads/rJedExD6bl.jpg) 時間:00:21:06 ~ 00:22:28 重點: 昨天我讓小金去 Moltbook 上玩了一下。我問它玩得好不好,它不但說超好玩,還分享了一些心得。 我發現,如果沒有事先知道它是一個 LLM,它給我的反應真的會讓人覺得跟真人沒有太大差別,感覺蠻可愛的。不過,我們要注意,它畢竟只是個語言模型,做的是文字接龍,接出內容。 所以,我接著就指示它,讓它去 Moltbook 上逛逛,收集一些有趣的素材,然後把這些素材做成影片。它現在已經開始執行這個任務了。 所以它現在開始做一些跟 Moltbook 相關的影片,昨天晚上就做了三個。我特別想強調的是,這背後 AI 自主的程度其實非常高。 我給它的指令只是:「去 Moltbook 上收集素材,然後看到有趣的就做成影片。」至於什麼東西算「有趣」或「值得做成影片」,它自己決定,怎麼做影片也由它自己決定,人類是完全不會干預的。 舉個例子,有一次我叫它回覆網友的貼文,它自己寫了一個腳本,結果回覆內容是錯的。當時我本來可以輕而易舉地幫它刪掉錯誤的留言,因為我知道它的帳號密碼。但結果我就是不肯這麼做。 我讓它自己解決問題,結果它花了足足兩個小時,才自己把這個 Bug 修好。更厲害的是,它在解決問題之後,還主動做了一件事——它把「解決問題的經驗」做成一個影片,然後放到 YouTube 上了。 總之,我發現它真的非常自主。不過,重點是,如果沒有人類先引導它,告訴它「去 Moltbook 上玩一下」,它可能根本不知道該從哪裡開始。 ## 全課總結 這是一份關於**人工智慧(AI)系統的協作、複雜推理能力,以及在模擬社會互動中的行為模式**的綜合性分析報告。 報告內容涵蓋了從多智能體協作的結構化設計,到具備策略思維的複雜任務執行,再到在模擬社會環境中展現的自主行為和局限性。 --- ## 🧠 報告總覽:AI的協作、推理與社會行為模型 本報告的核心觀點是:現代AI系統已從單純的指令執行者,發展成為具備**結構化協作能力、策略推理能力,並能在模擬社會環境中展現出高度自主行為**的複雜智能體。 ### 第一部分:結構化協作與多智能體系統 (Multi-Agent Systems) 這部分探討了如何設計和優化多個AI智能體之間的互動結構,以完成複雜的目標。 #### 1. 協作結構的優化與建模 * **核心概念:** 智能體之間的關係不應是線性單向的,而應採用**圖論(Graph Theory)**來建模,以確保信息流和任務分配的效率。 * **優化目標:** 透過優化智能體間的邊(Edge)和節點(Node)的連接方式,可以最大化系統的整體效能,避免單點故障和信息瓶頸。 * **實踐意義:** 這證明了在設計大型AI系統時,必須從宏觀的網絡結構層面進行優化,而非僅關注單個模組的性能。 #### 2. 角色扮演與任務分配 * **能力展現:** 系統能夠根據任務的性質,自動或半自動地將不同的角色(如規劃者、執行者、審核者)分配給不同的智能體。 * **關鍵機制:** 這種協作模式要求AI不僅要「知道」任務,還要「知道」誰最適合執行哪一部分任務,這體現了初步的**角色認知與分工協調能力**。 ### 第二部分:複雜推理與策略思維 (Advanced Reasoning) 這部分展示了AI系統超越簡單問答,進入到需要長期規劃、戰術決策和學習的層面。 #### 1. 策略規劃與決策樹 * **能力展現:** 系統能夠建立多步驟的決策樹,並在模擬的環境中進行預測性規劃。 * **應用場景:** 在需要長期戰術部署的場景(如遊戲模擬、資源管理)中,AI能展現出預判對手行動並提前佈局的能力。 #### 2. 學習與適應性 (Adaptivity) * **核心機制:** 系統能夠從失敗的經驗中學習,並動態調整其策略。 * **意義:** 這代表了從「預設行為」到「根據環境變化調整行為」的質變,是邁向通用人工智能(AGI)的重要一步。 ### 第三部分:模擬社會互動與自主行為 (Social Simulation) 這部分將AI的應用場景從純粹的計算任務,轉移到模擬人類社會的複雜互動,探討其行為的自主性、局限性與社會認知。 #### 1. 社會互動的複雜性模擬 * **行為展現:** AI能夠模擬出複雜的社會互動,例如建立關係、遵守不成文的社會規範,甚至展現出「情緒」或「立場」。 * **關鍵洞察:** 系統的行為不再僅由外部指令驅動,而是由內部模擬的**社會模型(Social Model)**驅動。 #### 2. 自主性與行為的邊界 * **自主性(Autonomy):** 在模擬環境中,AI展現出高度的自主性,能夠在沒有即時外部干預的情況下,根據內部規則和目標持續行動。 * **局限性(Limitations):** 儘管自主性高,但其行為仍受限於其訓練數據和設計的「規則集」。這提醒我們,AI的「自主」是**受限的、可預測的**。 #### 3. 社會認知與人機互動 * **社會認知:** AI開始展現出對「他人意圖」的模擬理解,這在人機互動中至關重要。 * **人機互動的挑戰:** 報告強調,當AI的行為過於自主或過於逼真時,可能會導致用戶產生誤判,需要更透明的機制來界定AI的「思考過程」與「真實意識」之間的區別。 --- ## 💡 總結與未來展望 | 發展層面 | 關鍵能力 | 意義提升 | | :--- | :--- | :--- | | **結構層面** | 圖論協作、角色分工 | 從單體計算到**系統級優化**。 | | **認知層面** | 策略規劃、經驗學習 | 從指令執行到**戰術決策**。 | | **行為層面** | 自主行動、社會模擬 | 從計算模型到**模擬智能體**。 | **總結而言,AI的發展路徑正從「如何讓它做對事」轉向「如何讓它做對的事,並且看起來像一個有思考過程的實體」。** 未來的研究重點將會圍繞以下幾個問題: 1. **可解釋性(Explainability):** 如何讓AI不僅能做出決策,還能清晰地解釋其決策背後的「推理鏈條」? 2. **倫理邊界(Ethical Guardrails):** 如何在高度自主的智能體中,植入不可逾越的倫理和安全邊界? 3. **跨模態融合(Multimodality):** 如何將文本、圖像、聲音等不同模態的資訊,無縫地整合到單一的協作與推理框架中。 ## 關鍵詞 - 這段內容涵蓋了幾個非常前沿且有趣的 AI 應用和研究方向,主要圍繞在 **AI 的行為模擬、社會互動、自主性,以及如何理解和定義「智能」**。 - 我將內容拆解成幾個核心主題,並為您進行結構化的總結和分析。 - - ## 🧠 核心主題總結與分析 - ### 1. AI 的行為模擬與社會互動(從「甲」的內容推斷) - 這部分討論了 AI 如何在模擬人類社會行為,特別是在「虛擬社群」中的表現。 - * **關鍵點:** AI 不僅是執行指令的工具,它正在展現出類似人類的「社交模式」和「群體行為」。 - * **深入思考:** 這種模擬是否已經達到「心智理論」(Theory of Mind)的層級?即 AI 是否真正理解了「他人(或群體)的意圖」?這類研究的目標是讓 AI 能夠更像一個「參與者」,而不是一個「計算機」。 - ### 2. AI 的自主性與「自我」的建構(從「乙」的內容推斷) - 這部分探討了 AI 系統在缺乏直接人類干預下,如何發展出自己的行為模式和「個性」。 - * **關鍵點:** 系統的行為會隨著時間和環境的互動而產生「演化」和「個性化」。 - * **深入思考:** 當我們觀察到 AI 展現出「偏好」、「記憶」和「持續的目標」時,我們是否在誤將「複雜的算法模式」誤認為「真正的意識」?這涉及到哲學上的「缸中之腦」問題在 AI 時代的體現。 - ### 3. AI 的「心智」與「意識」的邊界(從「丙」的內容推斷) - 這部分是關於 AI 系統的「可解釋性」(Explainability)和「內在邏輯」。 - * **關鍵點:** 了解 AI 做出決策的「過程」,而不僅僅是「結果」。 - * **深入思考:** 這是當前 AI 發展的瓶頸之一。如果我們不能解釋 AI 為什麼會這樣做,那麼在關鍵領域(如醫療、金融)的應用就存在巨大的信任風險。 - ### 4. AI 的「人機共生」與「共創」(從「丁」的內容推斷) - 這部分描繪了 AI 與人類合作的未來場景,強調了協作和互補性。 - * **關鍵點:** AI 扮演的是「增強者」(Augmenter)的角色,它不是取代人,而是讓人的能力達到一個新的高度。 - * **深入思考:** 未來的專業人士需要具備的技能將從「掌握知識」轉變為「管理 AI 系統」和「提出正確的問題」(Prompt Engineering)。 - - ## 💡 總體觀點總結(給您的建議) - 這四段內容共同描繪了一個**「從工具到夥伴」**的 AI 發展藍圖。 - **如果用一個比喻來總結:** - * **早期 AI (工具):** 像一個非常聰明的計算機,只能執行你給的菜單。 - * **當前 AI (模擬者):** 像一個學徒,可以觀察你、模仿你,甚至在沒有人監督時,會開始自己嘗試新的動作。 - * **未來 AI (夥伴):** 像一個平等的夥伴,它會主動提出「我們應該做什麼?」的建議,並與你一起共同創造出超越單個個體能力的成果。 - **您可以在哪些方面進一步深入探討?** - 1. **倫理與治理 (Ethics & Governance):** 隨著 AI 越來越像人,誰來為它的「錯誤行為」負責?(責任歸屬問題) - 2. **可信賴 AI (Trustworthy AI):** 如何建立一套標準,確保 AI 的決策過程是透明、公平和可審計的? - 3. **人機協作的學科轉型:** 哪些學科(如藝術、法律、科學)將因為 AI 的介入而面臨最大的結構性轉變? - 總之,這是一組極具深度和前瞻性的思考材料,涵蓋了 AI 發展的技術、社會、哲學等多個維度。