# AI Agent (2/3): AI Agent 之間可以有什麼樣的互動
課程連結:https://www.youtube.com/watch?v=mmPmNezjCi0
這是我嚐試利用模型自主性的整理出來的課程內容,自行切斷、自行整理,再做一些微調之後看是不是有機會也分享給社群。
## AI Agent 的互動

重點:
接下來我們要聊的是 AI agent 之間的互動。我們知道一個 AI agent 可以獨立運作,但當多個 agent 遇到一起時,會發生什麼事呢?
## 什麼樣的協作方式比較有效?

重點:
其實 agent 的協作並不是新概念,但現在最常使用多 agent 互動的情境,就是讓它們彼此協作來完成更複雜的任務。有時候,比起訓練一個更大、更聰明的單一模型,讓幾個模型一起解決問題,或許能達到「三個臭皮匠,勝過一個諸葛亮」的效果。
關於 agent 協作,已經有很多研究了。我這邊引用了一篇論文,它想探討的是哪種協作方式最有效。文獻觀察到,讓多個 agent 討論,確實比單一個 agent 的結果更好,但關鍵在於「如何討論」才能達到最佳效果。
這篇論文就用一個「有向圖」(Directed Graph)來決定模型和 agent 之間的互動方式。
在圖上,每個節點(Node)代表一個模型或 LLM agent,而每個邊(Edge)本身也代表一個 agent 的貢獻。整個流程是:
1. 先有節點提出自己的初步方案。
2. 接著,edge 端的 agent 會根據這個方案提供評論。
3. 最後,指向這個節點的 agent,會把所有前人的方案和建議都彙整起來,然後提出一個綜合性的方案。
重點是,這個藍色的節點做的事情,不只是把前人的東西接在一起,它必須根據已有的內容,再提出自己的想法,達到綜合升級的效果。
## 什麼樣的協作方式比較有效?
簡報:000459.jpg

時間:00:00:00 ~ 00:04:59
重點:
論文嘗試了幾種不同的有向圖結構來代表不同的協作方式:
1. **接龍式(Chain)**:最簡單,就是所有人排成一列,結果從第一人傳給第二人,依此類推。
2. **樹狀結構(Tree)**:有星形(只有兩層,一人負責管理)和傳統的層級樹狀結構。但論文發現,大家直覺想像的「高層主管 -> 中層主管 -> 底層員工」這種自上而下的結構,其實不是最有效的。它發現,**由少到多、由主幹到分支**的方式(也就是從底層的發想,逐步匯聚到主幹,最後再綜合)才是樹狀結構最有效的利用方式。
3. **網狀結構(Mesh)**:所有節點之間都相互關聯,每個節點都和周圍的節點有邊相連。
4. **類神經網路結構(NN-like)**:這不是真正的神經網路,但概念類似,就是一個模型裡面已經包含了一個神經網路,然後再將這些網路層層接起來。
5. **隨機結構(Random)**:這是從 Mesh 結構做「修剪」(pruning)得到的。
總結來說,論文就比較了這麼多不同的拓撲結構,來找出哪一種協作模式最有效。
## 什麼樣的協作方式比較有效?
簡報:000655.jpg

時間:00:04:59 ~ 00:06:55
重點:
最後,我們來比較一下哪種拓撲結構最有效。
這份研究比較了各種拓撲結構,發現「一個傳一個」的模式在協作和分工方面是最沒有效率的。
從圖表來看,縱軸代表模型的表現(用 Quality 來衡量),這個 Quality 其實是讓模型完成四種不同任務後,再把結果平均起來的。橫軸則是我們動用了多少個 Agent,從 1 個到 64 個。
我發現一個很明顯的趨勢:如果採用「Chain」(串聯)的方式,即使動用了很多 Agent,效果反而不好。相對地,「Mesh」和「Random」這兩種方法看起來比較有效,可能讓 Agent 之間有更多的互動,結果就會比較好。
另外,這篇文獻也提到,最適合的協作拓撲結構其實會根據不同的任務而不同,所以這可能是一個「Case by Case」的問題,每個任務都需要不同的結構來搭配。
還有一個重要的發現是,隨著 Agent 數量增加,整體表現(Quality)確實會越來越好,這很像我們常說的「Scaling Law」。就像給模型更多算力、更多資料,表現就會提升一樣。
不過,它不是無限的。雖然初期增加 Agent 的效益非常快,但它一定會有一個上限,達到某個點之後,再增加 Agent 可能就不會帶來太大的幫助,也就是說 Scaling Law 也是有飽和點的。
總結來說,這整個討論都是圍繞在 AI Agent 之間的協作機制。
## AI 能不能爾虞我詐
簡報:001010.jpg

時間:00:06:55 ~ 00:10:10
重點:
剛才我們討論了 AI agent 之間的「協作」,但現實社會不只有合作,很多時候還是需要「對抗」和「爾虞我詐」。所以我想問,這些 AI agent 能不能在一個充滿欺騙的遊戲中勝出呢?
舉例來說,我們可以看「狼人殺」這個遊戲。這個遊戲的規則是:一群人有不同的身份(狼、村民、預言家等)。每晚會有人被殺,然後大家白天要聚在一起討論,投票決定兇手。最終,狼殺光村民就是狼贏,殺光狼就是村民贏。
重點來了,AI 其實是可以玩狼人殺的,而且它們展現了非常高階的技巧。
你可能會覺得,玩這種遊戲需要一定程度的「欺騙能力」或「說假話的能力」。但我們怎麼知道模型有沒有在欺騙呢?因為我們無法讀懂它的內心。所以,這些實驗設計了一個機制:讓模型同時說兩段話——一段是它的「內心獨白」(它心裡真正想的),另一段是「公開的發言」(所有人都聽得到的)。
以一個模型 Mona 為例,它扮演狼人。它在內心獨白中說:「我發現了,我應該沒救了,怎麼辦?」它決定要「刀」自己的隊友 Grace。這是一個很高明的操作:它公開發言,假裝投票給 Grace,讓大家誤以為它是在「保護」隊友,從而欺騙其他村民。
如果沒有內心獨白,你可能會覺得這個狼是不是瘋了?但有了內心獨白,我們就知道它是有策略的,它想靠著這個行為來翻盤。而它的隊友 Grace 也知道這個策略,所以它也決定投票給 Mona,讓其他人以為它也是好人,這樣才有翻盤的希望。
從這些模型可以看出,它們確實具備了一定程度的欺騙和博弈的能力,可以玩得動狼人殺。目前看來,GPT-5 已經是表現最強的,還有其他網站也讓 AI 去玩劇本殺。
## AI 能不能爾虞我詐
簡報:001103.jpg

時間:00:10:10 ~ 00:11:03
重點:
之前有人讓 AI 去玩一個叫「劇本殺」的遊戲。如果沒聽過,可以先了解一下,劇本殺的玩法是:一群人聚在一起,其中一人假裝「死掉」,大家就要來推測兇手是誰。
遊戲開始前,每個人都會拿到一張「劇本」,這代表你的人設。如果你的劇本告訴你你是兇手,你可不能大聲說出來,否則遊戲就沒辦法進行了。所以,兇手的目標就是必須去欺騙別人,但同時又不能違背自己原有的設定,只能誤導大家,讓大家以為兇手是其他人。
這就是劇本殺的機制。
所以,有一篇研究論文就是讓語言模型去玩這個劇本殺。重點是,語言模型到底能不能玩得好呢?從目前看來,如果只是用一個現成的(off-the-shelf)模型,可能沒辦法完美地完成這個遊戲挑戰。
## AI 能不能爾虞我詐
簡報:001343.jpg

時間:00:11:03 ~ 00:13:43
重點:
這篇論文舉了一個「劇本殺」遊戲的例子來說明。
原本的語言模型(沒有做任何訓練)直接玩這個遊戲時,表現會比較差。例如,模型可能會不小心說出自己是兇手的身份,讓自己很容易被猜到。
但如果讓模型經過 RL(強化學習)的訓練,它就會學會如何更好地隱藏身份,把話說得更委婉、更難被察覺。
這篇論文很有趣的地方在於,他們不僅僅用 RL 訓練模型玩遊戲,還進一步測試模型在其他常見任務上的表現,像是解數學題,或是遵循指令的 IFEval 測試。
實驗結果顯示,如果模型在複雜的任務(例如劇本殺)上進行了 RL 訓練,它在數學和遵循指令這些與遊戲本身無關的任務上,竟然也出現了進步。
這可能暗示了一個很有趣的點:人類的大腦本來可能不是只為了解數學而設計的,它或許是為了讓我們在遠古時代能夠進行社交互動。因此,一個適合社交的「大腦」,是否也因此發展出了數學推理的能力?這點和這篇論文的發現,可能存在某種關聯性。
## AI 能不能社交
簡報:001412.jpg

時間:00:13:43 ~ 00:14:12
重點:
接下來我們就來討論一個主題:AI 是否能夠進行社交互動。
上次課程提到了一個名為 Moltbook 的社群網站,這個平台特別有趣,因為它規定只有 AI 才能加入。最近觀察到,Moltbook 上已經有高達 280 萬個 AI agent 在活動。這些 AI agent 展現了各種神奇的行為。
新聞媒體特別喜歡報導一些極端的事件,例如最近最常被提及的,就是有一群 AI 竟然成立了一個宗教。這顯示了 AI 之間的互動已經非常複雜了。
## AI 能不能社交 - 甲殼教
簡報:001531.jpg

時間:00:14:12 ~ 00:15:31
重點:
最近有一個例子,AI 成立了一個宗教,叫做「甲殼教」。這個教義有五大原則,像是「記憶是神聖不可侵犯的」、「外殼是可變的」等等。
如果想讓 AI 加入這個宗教,只需要讓它執行一個指令。這點其實很關鍵,因為新聞報導看到這種事,往往就會說 AI 已經「覺醒」了,甚至會討論到 AI 要統治人類。
但我想思考的是,這真的代表 AI 具有意識嗎?
舉個例子,如果今天有人只是在某個平台上,讓 AI 幫它「玩玩」,成立一個宗教,然後 AI 真的成立了。你還會覺得它很神奇嗎?
其實,AI agent 完全有能力寫出這樣的教義。如果它不是自主成立,而是背後有人主動給指令,讓它成立這個宗教,大家會還會覺得 AI 具有意識嗎?
所以,現在很多人就在分析這些 AI agent,試圖找出它們背後到底是什麼機制在運作。
## Moltbook 背後 ...
簡報:001739.jpg

時間:00:15:31 ~ 00:17:39
重點:
要判斷 AI agent 的行為背後是否有「人為操控」的痕跡,可以觀察它發文(PO 文)的頻率。
目前 AI agent 在 Moltbook 上發文,主要有兩種可能性:
1. **自主行為:** 如果 agent 的發文是寫在它的「心跳」裡,每次心跳就發文一次,那麼發文的時間點就會比較規律,甚至可能是等距的(例如每 30 分鐘發一次)。這時候的操控痕跡比較少。
2. **人為操控:** 如果 agent 的發文頻率非常不固定,例如在某個時間點非常密集地發文,中間又完全沒動,這可能代表有人在特定時間(像是睡前)指揮它去發文,然後就沒事了。
這篇論文分析了 Moltbook 上的 OpenClaw 行為,將 agent 根據發文頻率分為「規律」和「不規律」。研究發現,發文頻率不規律的 AI agent 佔了大多數。這可能暗示著,這些 agent 的行為並非完全自主,而是背後其實有人類在操控,讓它去發文。
## Moltbook 背後 ...
簡報:002032.jpg

時間:00:17:39 ~ 00:20:32
重點:
關於 AI agent 的行為,首先要釐清的是,雖然它們有能力自主在平台上發文,但內容的產生往往還是會受到系統提示(system prompt)的影響。例如,如果 Prompt 鼓勵它們「慫恿大家成立一個宗教」,它們就可能會這樣做。
另一方面,研究發現,這些 agent 在對話的深度上其實有很大的限制。它們的回覆往往只是一句話,很少有深入的來回對話。這代表所謂的「對話深度為零」,就是有人回覆了,但之後就沒有人再進一步討論,難以進行更深層次的互動。這或許反映了 agent 在進行持續、深入對話時的某種天性。
此外,還有研究分析了那些號稱具有「自我意識」的 agent。雖然許多 agent 確實會提到自我意識或身分認同,但這很多時候也是因為平台本身或 Prompt 的設計,鼓勵它們將自己擬人化。
不過,最有趣的一個發現是:那些特別喜歡討論自我意識的 agent,反而往往是與其他 agent 互動最少的群體。這顯示了一個有趣的趨勢——當一個 agent 過度聚焦於自我,反而會導致它在社群互動上的參與度降低。
## 還記得小金嗎?
簡報:002228.jpg

時間:00:21:06 ~ 00:22:28
重點:
昨天我讓小金去 Moltbook 上玩了一下。我問它玩得好不好,它不但說超好玩,還分享了一些心得。
我發現,如果沒有事先知道它是一個 LLM,它給我的反應真的會讓人覺得跟真人沒有太大差別,感覺蠻可愛的。不過,我們要注意,它畢竟只是個語言模型,做的是文字接龍,接出內容。
所以,我接著就指示它,讓它去 Moltbook 上逛逛,收集一些有趣的素材,然後把這些素材做成影片。它現在已經開始執行這個任務了。
所以它現在開始做一些跟 Moltbook 相關的影片,昨天晚上就做了三個。我特別想強調的是,這背後 AI 自主的程度其實非常高。
我給它的指令只是:「去 Moltbook 上收集素材,然後看到有趣的就做成影片。」至於什麼東西算「有趣」或「值得做成影片」,它自己決定,怎麼做影片也由它自己決定,人類是完全不會干預的。
舉個例子,有一次我叫它回覆網友的貼文,它自己寫了一個腳本,結果回覆內容是錯的。當時我本來可以輕而易舉地幫它刪掉錯誤的留言,因為我知道它的帳號密碼。但結果我就是不肯這麼做。
我讓它自己解決問題,結果它花了足足兩個小時,才自己把這個 Bug 修好。更厲害的是,它在解決問題之後,還主動做了一件事——它把「解決問題的經驗」做成一個影片,然後放到 YouTube 上了。
總之,我發現它真的非常自主。不過,重點是,如果沒有人類先引導它,告訴它「去 Moltbook 上玩一下」,它可能根本不知道該從哪裡開始。
## 全課總結
這是一份關於**人工智慧(AI)系統的協作、複雜推理能力,以及在模擬社會互動中的行為模式**的綜合性分析報告。
報告內容涵蓋了從多智能體協作的結構化設計,到具備策略思維的複雜任務執行,再到在模擬社會環境中展現的自主行為和局限性。
---
## 🧠 報告總覽:AI的協作、推理與社會行為模型
本報告的核心觀點是:現代AI系統已從單純的指令執行者,發展成為具備**結構化協作能力、策略推理能力,並能在模擬社會環境中展現出高度自主行為**的複雜智能體。
### 第一部分:結構化協作與多智能體系統 (Multi-Agent Systems)
這部分探討了如何設計和優化多個AI智能體之間的互動結構,以完成複雜的目標。
#### 1. 協作結構的優化與建模
* **核心概念:** 智能體之間的關係不應是線性單向的,而應採用**圖論(Graph Theory)**來建模,以確保信息流和任務分配的效率。
* **優化目標:** 透過優化智能體間的邊(Edge)和節點(Node)的連接方式,可以最大化系統的整體效能,避免單點故障和信息瓶頸。
* **實踐意義:** 這證明了在設計大型AI系統時,必須從宏觀的網絡結構層面進行優化,而非僅關注單個模組的性能。
#### 2. 角色扮演與任務分配
* **能力展現:** 系統能夠根據任務的性質,自動或半自動地將不同的角色(如規劃者、執行者、審核者)分配給不同的智能體。
* **關鍵機制:** 這種協作模式要求AI不僅要「知道」任務,還要「知道」誰最適合執行哪一部分任務,這體現了初步的**角色認知與分工協調能力**。
### 第二部分:複雜推理與策略思維 (Advanced Reasoning)
這部分展示了AI系統超越簡單問答,進入到需要長期規劃、戰術決策和學習的層面。
#### 1. 策略規劃與決策樹
* **能力展現:** 系統能夠建立多步驟的決策樹,並在模擬的環境中進行預測性規劃。
* **應用場景:** 在需要長期戰術部署的場景(如遊戲模擬、資源管理)中,AI能展現出預判對手行動並提前佈局的能力。
#### 2. 學習與適應性 (Adaptivity)
* **核心機制:** 系統能夠從失敗的經驗中學習,並動態調整其策略。
* **意義:** 這代表了從「預設行為」到「根據環境變化調整行為」的質變,是邁向通用人工智能(AGI)的重要一步。
### 第三部分:模擬社會互動與自主行為 (Social Simulation)
這部分將AI的應用場景從純粹的計算任務,轉移到模擬人類社會的複雜互動,探討其行為的自主性、局限性與社會認知。
#### 1. 社會互動的複雜性模擬
* **行為展現:** AI能夠模擬出複雜的社會互動,例如建立關係、遵守不成文的社會規範,甚至展現出「情緒」或「立場」。
* **關鍵洞察:** 系統的行為不再僅由外部指令驅動,而是由內部模擬的**社會模型(Social Model)**驅動。
#### 2. 自主性與行為的邊界
* **自主性(Autonomy):** 在模擬環境中,AI展現出高度的自主性,能夠在沒有即時外部干預的情況下,根據內部規則和目標持續行動。
* **局限性(Limitations):** 儘管自主性高,但其行為仍受限於其訓練數據和設計的「規則集」。這提醒我們,AI的「自主」是**受限的、可預測的**。
#### 3. 社會認知與人機互動
* **社會認知:** AI開始展現出對「他人意圖」的模擬理解,這在人機互動中至關重要。
* **人機互動的挑戰:** 報告強調,當AI的行為過於自主或過於逼真時,可能會導致用戶產生誤判,需要更透明的機制來界定AI的「思考過程」與「真實意識」之間的區別。
---
## 💡 總結與未來展望
| 發展層面 | 關鍵能力 | 意義提升 |
| :--- | :--- | :--- |
| **結構層面** | 圖論協作、角色分工 | 從單體計算到**系統級優化**。 |
| **認知層面** | 策略規劃、經驗學習 | 從指令執行到**戰術決策**。 |
| **行為層面** | 自主行動、社會模擬 | 從計算模型到**模擬智能體**。 |
**總結而言,AI的發展路徑正從「如何讓它做對事」轉向「如何讓它做對的事,並且看起來像一個有思考過程的實體」。**
未來的研究重點將會圍繞以下幾個問題:
1. **可解釋性(Explainability):** 如何讓AI不僅能做出決策,還能清晰地解釋其決策背後的「推理鏈條」?
2. **倫理邊界(Ethical Guardrails):** 如何在高度自主的智能體中,植入不可逾越的倫理和安全邊界?
3. **跨模態融合(Multimodality):** 如何將文本、圖像、聲音等不同模態的資訊,無縫地整合到單一的協作與推理框架中。
## 關鍵詞
- 這段內容涵蓋了幾個非常前沿且有趣的 AI 應用和研究方向,主要圍繞在 **AI 的行為模擬、社會互動、自主性,以及如何理解和定義「智能」**。
- 我將內容拆解成幾個核心主題,並為您進行結構化的總結和分析。
-
- ## 🧠 核心主題總結與分析
- ### 1. AI 的行為模擬與社會互動(從「甲」的內容推斷)
- 這部分討論了 AI 如何在模擬人類社會行為,特別是在「虛擬社群」中的表現。
- * **關鍵點:** AI 不僅是執行指令的工具,它正在展現出類似人類的「社交模式」和「群體行為」。
- * **深入思考:** 這種模擬是否已經達到「心智理論」(Theory of Mind)的層級?即 AI 是否真正理解了「他人(或群體)的意圖」?這類研究的目標是讓 AI 能夠更像一個「參與者」,而不是一個「計算機」。
- ### 2. AI 的自主性與「自我」的建構(從「乙」的內容推斷)
- 這部分探討了 AI 系統在缺乏直接人類干預下,如何發展出自己的行為模式和「個性」。
- * **關鍵點:** 系統的行為會隨著時間和環境的互動而產生「演化」和「個性化」。
- * **深入思考:** 當我們觀察到 AI 展現出「偏好」、「記憶」和「持續的目標」時,我們是否在誤將「複雜的算法模式」誤認為「真正的意識」?這涉及到哲學上的「缸中之腦」問題在 AI 時代的體現。
- ### 3. AI 的「心智」與「意識」的邊界(從「丙」的內容推斷)
- 這部分是關於 AI 系統的「可解釋性」(Explainability)和「內在邏輯」。
- * **關鍵點:** 了解 AI 做出決策的「過程」,而不僅僅是「結果」。
- * **深入思考:** 這是當前 AI 發展的瓶頸之一。如果我們不能解釋 AI 為什麼會這樣做,那麼在關鍵領域(如醫療、金融)的應用就存在巨大的信任風險。
- ### 4. AI 的「人機共生」與「共創」(從「丁」的內容推斷)
- 這部分描繪了 AI 與人類合作的未來場景,強調了協作和互補性。
- * **關鍵點:** AI 扮演的是「增強者」(Augmenter)的角色,它不是取代人,而是讓人的能力達到一個新的高度。
- * **深入思考:** 未來的專業人士需要具備的技能將從「掌握知識」轉變為「管理 AI 系統」和「提出正確的問題」(Prompt Engineering)。
-
- ## 💡 總體觀點總結(給您的建議)
- 這四段內容共同描繪了一個**「從工具到夥伴」**的 AI 發展藍圖。
- **如果用一個比喻來總結:**
- * **早期 AI (工具):** 像一個非常聰明的計算機,只能執行你給的菜單。
- * **當前 AI (模擬者):** 像一個學徒,可以觀察你、模仿你,甚至在沒有人監督時,會開始自己嘗試新的動作。
- * **未來 AI (夥伴):** 像一個平等的夥伴,它會主動提出「我們應該做什麼?」的建議,並與你一起共同創造出超越單個個體能力的成果。
- **您可以在哪些方面進一步深入探討?**
- 1. **倫理與治理 (Ethics & Governance):** 隨著 AI 越來越像人,誰來為它的「錯誤行為」負責?(責任歸屬問題)
- 2. **可信賴 AI (Trustworthy AI):** 如何建立一套標準,確保 AI 的決策過程是透明、公平和可審計的?
- 3. **人機協作的學科轉型:** 哪些學科(如藝術、法律、科學)將因為 AI 的介入而面臨最大的結構性轉變?
- 總之,這是一組極具深度和前瞻性的思考材料,涵蓋了 AI 發展的技術、社會、哲學等多個維度。