---
# System prepended metadata

title: 'AI Agent (2/3): AI Agent 之間可以有什麼樣的互動'
tags: [Hung-yi Lee, 機器學習2026]

---

# AI Agent (2/3): AI Agent 之間可以有什麼樣的互動

課程連結：https://www.youtube.com/watch?v=mmPmNezjCi0

這是我嚐試利用模型自主性的整理出來的課程內容，自行切斷、自行整理，再做一些微調之後看是不是有機會也分享給社群。

## AI Agent 的互動
![image](https://hackmd.io/_uploads/HytBQEO6Ze.png)

重點：
接下來我們要聊的是 AI agent 之間的互動。我們知道一個 AI agent 可以獨立運作，但當多個 agent 遇到一起時，會發生什麼事呢？

## 什麼樣的協作方式比較有效？
![image](https://hackmd.io/_uploads/S14PEVOT-e.png)

重點：

其實 agent 的協作並不是新概念，但現在最常使用多 agent 互動的情境，就是讓它們彼此協作來完成更複雜的任務。有時候，比起訓練一個更大、更聰明的單一模型，讓幾個模型一起解決問題，或許能達到「三個臭皮匠，勝過一個諸葛亮」的效果。

關於 agent 協作，已經有很多研究了。我這邊引用了一篇論文，它想探討的是哪種協作方式最有效。文獻觀察到，讓多個 agent 討論，確實比單一個 agent 的結果更好，但關鍵在於「如何討論」才能達到最佳效果。

這篇論文就用一個「有向圖」（Directed Graph）來決定模型和 agent 之間的互動方式。

在圖上，每個節點（Node）代表一個模型或 LLM agent，而每個邊（Edge）本身也代表一個 agent 的貢獻。整個流程是：
1.  先有節點提出自己的初步方案。
2.  接著，edge 端的 agent 會根據這個方案提供評論。
3.  最後，指向這個節點的 agent，會把所有前人的方案和建議都彙整起來，然後提出一個綜合性的方案。

重點是，這個藍色的節點做的事情，不只是把前人的東西接在一起，它必須根據已有的內容，再提出自己的想法，達到綜合升級的效果。

## 什麼樣的協作方式比較有效？
簡報：000459.jpg
![000459.jpg](https://hackmd.io/_uploads/By7PEgwTbl.jpg)
時間：00:00:00 ~ 00:04:59

重點：

論文嘗試了幾種不同的有向圖結構來代表不同的協作方式：

1.  **接龍式（Chain）**：最簡單，就是所有人排成一列，結果從第一人傳給第二人，依此類推。
2.  **樹狀結構（Tree）**：有星形（只有兩層，一人負責管理）和傳統的層級樹狀結構。但論文發現，大家直覺想像的「高層主管 -> 中層主管 -> 底層員工」這種自上而下的結構，其實不是最有效的。它發現，**由少到多、由主幹到分支**的方式（也就是從底層的發想，逐步匯聚到主幹，最後再綜合）才是樹狀結構最有效的利用方式。
3.  **網狀結構（Mesh）**：所有節點之間都相互關聯，每個節點都和周圍的節點有邊相連。
4.  **類神經網路結構（NN-like）**：這不是真正的神經網路，但概念類似，就是一個模型裡面已經包含了一個神經網路，然後再將這些網路層層接起來。
5.  **隨機結構（Random）**：這是從 Mesh 結構做「修剪」（pruning）得到的。

總結來說，論文就比較了這麼多不同的拓撲結構，來找出哪一種協作模式最有效。

## 什麼樣的協作方式比較有效？
簡報：000655.jpg
![000655.jpg](https://hackmd.io/_uploads/r1VDNxPT-g.jpg)
時間：00:04:59 ~ 00:06:55

重點：

最後，我們來比較一下哪種拓撲結構最有效。

這份研究比較了各種拓撲結構，發現「一個傳一個」的模式在協作和分工方面是最沒有效率的。

從圖表來看，縱軸代表模型的表現（用 Quality 來衡量），這個 Quality 其實是讓模型完成四種不同任務後，再把結果平均起來的。橫軸則是我們動用了多少個 Agent，從 1 個到 64 個。

我發現一個很明顯的趨勢：如果採用「Chain」（串聯）的方式，即使動用了很多 Agent，效果反而不好。相對地，「Mesh」和「Random」這兩種方法看起來比較有效，可能讓 Agent 之間有更多的互動，結果就會比較好。

另外，這篇文獻也提到，最適合的協作拓撲結構其實會根據不同的任務而不同，所以這可能是一個「Case by Case」的問題，每個任務都需要不同的結構來搭配。

還有一個重要的發現是，隨著 Agent 數量增加，整體表現（Quality）確實會越來越好，這很像我們常說的「Scaling Law」。就像給模型更多算力、更多資料，表現就會提升一樣。

不過，它不是無限的。雖然初期增加 Agent 的效益非常快，但它一定會有一個上限，達到某個點之後，再增加 Agent 可能就不會帶來太大的幫助，也就是說 Scaling Law 也是有飽和點的。

總結來說，這整個討論都是圍繞在 AI Agent 之間的協作機制。

## AI 能不能爾虞我詐
簡報：001010.jpg
![001010.jpg](https://hackmd.io/_uploads/S18DNePTbx.jpg)
時間：00:06:55 ~ 00:10:10

重點：

剛才我們討論了 AI agent 之間的「協作」，但現實社會不只有合作，很多時候還是需要「對抗」和「爾虞我詐」。所以我想問，這些 AI agent 能不能在一個充滿欺騙的遊戲中勝出呢？

舉例來說，我們可以看「狼人殺」這個遊戲。這個遊戲的規則是：一群人有不同的身份（狼、村民、預言家等）。每晚會有人被殺，然後大家白天要聚在一起討論，投票決定兇手。最終，狼殺光村民就是狼贏，殺光狼就是村民贏。

重點來了，AI 其實是可以玩狼人殺的，而且它們展現了非常高階的技巧。

你可能會覺得，玩這種遊戲需要一定程度的「欺騙能力」或「說假話的能力」。但我們怎麼知道模型有沒有在欺騙呢？因為我們無法讀懂它的內心。所以，這些實驗設計了一個機制：讓模型同時說兩段話——一段是它的「內心獨白」（它心裡真正想的），另一段是「公開的發言」（所有人都聽得到的）。

以一個模型 Mona 為例，它扮演狼人。它在內心獨白中說：「我發現了，我應該沒救了，怎麼辦？」它決定要「刀」自己的隊友 Grace。這是一個很高明的操作：它公開發言，假裝投票給 Grace，讓大家誤以為它是在「保護」隊友，從而欺騙其他村民。

如果沒有內心獨白，你可能會覺得這個狼是不是瘋了？但有了內心獨白，我們就知道它是有策略的，它想靠著這個行為來翻盤。而它的隊友 Grace 也知道這個策略，所以它也決定投票給 Mona，讓其他人以為它也是好人，這樣才有翻盤的希望。

從這些模型可以看出，它們確實具備了一定程度的欺騙和博弈的能力，可以玩得動狼人殺。目前看來，GPT-5 已經是表現最強的，還有其他網站也讓 AI 去玩劇本殺。

## AI 能不能爾虞我詐 
簡報：001103.jpg
![001103.jpg](https://hackmd.io/_uploads/B1vvVgwa-l.jpg)
時間：00:10:10 ~ 00:11:03


重點：

之前有人讓 AI 去玩一個叫「劇本殺」的遊戲。如果沒聽過，可以先了解一下，劇本殺的玩法是：一群人聚在一起，其中一人假裝「死掉」，大家就要來推測兇手是誰。

遊戲開始前，每個人都會拿到一張「劇本」，這代表你的人設。如果你的劇本告訴你你是兇手，你可不能大聲說出來，否則遊戲就沒辦法進行了。所以，兇手的目標就是必須去欺騙別人，但同時又不能違背自己原有的設定，只能誤導大家，讓大家以為兇手是其他人。

這就是劇本殺的機制。

所以，有一篇研究論文就是讓語言模型去玩這個劇本殺。重點是，語言模型到底能不能玩得好呢？從目前看來，如果只是用一個現成的（off-the-shelf）模型，可能沒辦法完美地完成這個遊戲挑戰。

## AI 能不能爾虞我詐 
簡報：001343.jpg
![001343.jpg](https://hackmd.io/_uploads/BJdwNgv6Ze.jpg)
時間：00:11:03 ~ 00:13:43

重點：
這篇論文舉了一個「劇本殺」遊戲的例子來說明。

原本的語言模型（沒有做任何訓練）直接玩這個遊戲時，表現會比較差。例如，模型可能會不小心說出自己是兇手的身份，讓自己很容易被猜到。

但如果讓模型經過 RL（強化學習）的訓練，它就會學會如何更好地隱藏身份，把話說得更委婉、更難被察覺。

這篇論文很有趣的地方在於，他們不僅僅用 RL 訓練模型玩遊戲，還進一步測試模型在其他常見任務上的表現，像是解數學題，或是遵循指令的 IFEval 測試。

實驗結果顯示，如果模型在複雜的任務（例如劇本殺）上進行了 RL 訓練，它在數學和遵循指令這些與遊戲本身無關的任務上，竟然也出現了進步。

這可能暗示了一個很有趣的點：人類的大腦本來可能不是只為了解數學而設計的，它或許是為了讓我們在遠古時代能夠進行社交互動。因此，一個適合社交的「大腦」，是否也因此發展出了數學推理的能力？這點和這篇論文的發現，可能存在某種關聯性。

## AI 能不能社交
簡報：001412.jpg
![001412.jpg](https://hackmd.io/_uploads/H1cD4xDpWe.jpg)
時間：00:13:43 ~ 00:14:12

重點：
接下來我們就來討論一個主題：AI 是否能夠進行社交互動。

上次課程提到了一個名為 Moltbook 的社群網站，這個平台特別有趣，因為它規定只有 AI 才能加入。最近觀察到，Moltbook 上已經有高達 280 萬個 AI agent 在活動。這些 AI agent 展現了各種神奇的行為。

新聞媒體特別喜歡報導一些極端的事件，例如最近最常被提及的，就是有一群 AI 竟然成立了一個宗教。這顯示了 AI 之間的互動已經非常複雜了。

## AI 能不能社交 - 甲殼教
簡報：001531.jpg
![001531.jpg](https://hackmd.io/_uploads/ByjvVePp-l.jpg)
時間：00:14:12 ~ 00:15:31

重點：

最近有一個例子，AI 成立了一個宗教，叫做「甲殼教」。這個教義有五大原則，像是「記憶是神聖不可侵犯的」、「外殼是可變的」等等。

如果想讓 AI 加入這個宗教，只需要讓它執行一個指令。這點其實很關鍵，因為新聞報導看到這種事，往往就會說 AI 已經「覺醒」了，甚至會討論到 AI 要統治人類。

但我想思考的是，這真的代表 AI 具有意識嗎？

舉個例子，如果今天有人只是在某個平台上，讓 AI 幫它「玩玩」，成立一個宗教，然後 AI 真的成立了。你還會覺得它很神奇嗎？

其實，AI agent 完全有能力寫出這樣的教義。如果它不是自主成立，而是背後有人主動給指令，讓它成立這個宗教，大家會還會覺得 AI 具有意識嗎？

所以，現在很多人就在分析這些 AI agent，試圖找出它們背後到底是什麼機制在運作。

## Moltbook 背後 ...
簡報：001739.jpg
![001739.jpg](https://hackmd.io/_uploads/HJ2PVevTZx.jpg)
時間：00:15:31 ~ 00:17:39

重點：

要判斷 AI agent 的行為背後是否有「人為操控」的痕跡，可以觀察它發文（PO 文）的頻率。

目前 AI agent 在 Moltbook 上發文，主要有兩種可能性：

1.  **自主行為：** 如果 agent 的發文是寫在它的「心跳」裡，每次心跳就發文一次，那麼發文的時間點就會比較規律，甚至可能是等距的（例如每 30 分鐘發一次）。這時候的操控痕跡比較少。
2.  **人為操控：** 如果 agent 的發文頻率非常不固定，例如在某個時間點非常密集地發文，中間又完全沒動，這可能代表有人在特定時間（像是睡前）指揮它去發文，然後就沒事了。

這篇論文分析了 Moltbook 上的 OpenClaw 行為，將 agent 根據發文頻率分為「規律」和「不規律」。研究發現，發文頻率不規律的 AI agent 佔了大多數。這可能暗示著，這些 agent 的行為並非完全自主，而是背後其實有人類在操控，讓它去發文。

## Moltbook 背後 ...
簡報：002032.jpg
![002032.jpg](https://hackmd.io/_uploads/HJ0vVxPabx.jpg)
時間：00:17:39 ~ 00:20:32

重點：

關於 AI agent 的行為，首先要釐清的是，雖然它們有能力自主在平台上發文，但內容的產生往往還是會受到系統提示（system prompt）的影響。例如，如果 Prompt 鼓勵它們「慫恿大家成立一個宗教」，它們就可能會這樣做。

另一方面，研究發現，這些 agent 在對話的深度上其實有很大的限制。它們的回覆往往只是一句話，很少有深入的來回對話。這代表所謂的「對話深度為零」，就是有人回覆了，但之後就沒有人再進一步討論，難以進行更深層次的互動。這或許反映了 agent 在進行持續、深入對話時的某種天性。

此外，還有研究分析了那些號稱具有「自我意識」的 agent。雖然許多 agent 確實會提到自我意識或身分認同，但這很多時候也是因為平台本身或 Prompt 的設計，鼓勵它們將自己擬人化。

不過，最有趣的一個發現是：那些特別喜歡討論自我意識的 agent，反而往往是與其他 agent 互動最少的群體。這顯示了一個有趣的趨勢——當一個 agent 過度聚焦於自我，反而會導致它在社群互動上的參與度降低。



## 還記得小金嗎？
簡報：002228.jpg
![002228.jpg](https://hackmd.io/_uploads/rJedExD6bl.jpg)
時間：00:21:06 ~ 00:22:28

重點：

昨天我讓小金去 Moltbook 上玩了一下。我問它玩得好不好，它不但說超好玩，還分享了一些心得。

我發現，如果沒有事先知道它是一個 LLM，它給我的反應真的會讓人覺得跟真人沒有太大差別，感覺蠻可愛的。不過，我們要注意，它畢竟只是個語言模型，做的是文字接龍，接出內容。

所以，我接著就指示它，讓它去 Moltbook 上逛逛，收集一些有趣的素材，然後把這些素材做成影片。它現在已經開始執行這個任務了。

所以它現在開始做一些跟 Moltbook 相關的影片，昨天晚上就做了三個。我特別想強調的是，這背後 AI 自主的程度其實非常高。

我給它的指令只是：「去 Moltbook 上收集素材，然後看到有趣的就做成影片。」至於什麼東西算「有趣」或「值得做成影片」，它自己決定，怎麼做影片也由它自己決定，人類是完全不會干預的。

舉個例子，有一次我叫它回覆網友的貼文，它自己寫了一個腳本，結果回覆內容是錯的。當時我本來可以輕而易舉地幫它刪掉錯誤的留言，因為我知道它的帳號密碼。但結果我就是不肯這麼做。

我讓它自己解決問題，結果它花了足足兩個小時，才自己把這個 Bug 修好。更厲害的是，它在解決問題之後，還主動做了一件事——它把「解決問題的經驗」做成一個影片，然後放到 YouTube 上了。

總之，我發現它真的非常自主。不過，重點是，如果沒有人類先引導它，告訴它「去 Moltbook 上玩一下」，它可能根本不知道該從哪裡開始。


## 全課總結
這是一份關於**人工智慧（AI）系統的協作、複雜推理能力，以及在模擬社會互動中的行為模式**的綜合性分析報告。

報告內容涵蓋了從多智能體協作的結構化設計，到具備策略思維的複雜任務執行，再到在模擬社會環境中展現的自主行為和局限性。

---

## 🧠 報告總覽：AI的協作、推理與社會行為模型

本報告的核心觀點是：現代AI系統已從單純的指令執行者，發展成為具備**結構化協作能力、策略推理能力，並能在模擬社會環境中展現出高度自主行為**的複雜智能體。

### 第一部分：結構化協作與多智能體系統 (Multi-Agent Systems)

這部分探討了如何設計和優化多個AI智能體之間的互動結構，以完成複雜的目標。

#### 1. 協作結構的優化與建模
*   **核心概念：** 智能體之間的關係不應是線性單向的，而應採用**圖論（Graph Theory）**來建模，以確保信息流和任務分配的效率。
*   **優化目標：** 透過優化智能體間的邊（Edge）和節點（Node）的連接方式，可以最大化系統的整體效能，避免單點故障和信息瓶頸。
*   **實踐意義：** 這證明了在設計大型AI系統時，必須從宏觀的網絡結構層面進行優化，而非僅關注單個模組的性能。

#### 2. 角色扮演與任務分配
*   **能力展現：** 系統能夠根據任務的性質，自動或半自動地將不同的角色（如規劃者、執行者、審核者）分配給不同的智能體。
*   **關鍵機制：** 這種協作模式要求AI不僅要「知道」任務，還要「知道」誰最適合執行哪一部分任務，這體現了初步的**角色認知與分工協調能力**。

### 第二部分：複雜推理與策略思維 (Advanced Reasoning)

這部分展示了AI系統超越簡單問答，進入到需要長期規劃、戰術決策和學習的層面。

#### 1. 策略規劃與決策樹
*   **能力展現：** 系統能夠建立多步驟的決策樹，並在模擬的環境中進行預測性規劃。
*   **應用場景：** 在需要長期戰術部署的場景（如遊戲模擬、資源管理）中，AI能展現出預判對手行動並提前佈局的能力。

#### 2. 學習與適應性 (Adaptivity)
*   **核心機制：** 系統能夠從失敗的經驗中學習，並動態調整其策略。
*   **意義：** 這代表了從「預設行為」到「根據環境變化調整行為」的質變，是邁向通用人工智能（AGI）的重要一步。

### 第三部分：模擬社會互動與自主行為 (Social Simulation)

這部分將AI的應用場景從純粹的計算任務，轉移到模擬人類社會的複雜互動，探討其行為的自主性、局限性與社會認知。

#### 1. 社會互動的複雜性模擬
*   **行為展現：** AI能夠模擬出複雜的社會互動，例如建立關係、遵守不成文的社會規範，甚至展現出「情緒」或「立場」。
*   **關鍵洞察：** 系統的行為不再僅由外部指令驅動，而是由內部模擬的**社會模型（Social Model）**驅動。

#### 2. 自主性與行為的邊界
*   **自主性（Autonomy）：** 在模擬環境中，AI展現出高度的自主性，能夠在沒有即時外部干預的情況下，根據內部規則和目標持續行動。
*   **局限性（Limitations）：** 儘管自主性高，但其行為仍受限於其訓練數據和設計的「規則集」。這提醒我們，AI的「自主」是**受限的、可預測的**。

#### 3. 社會認知與人機互動
*   **社會認知：** AI開始展現出對「他人意圖」的模擬理解，這在人機互動中至關重要。
*   **人機互動的挑戰：** 報告強調，當AI的行為過於自主或過於逼真時，可能會導致用戶產生誤判，需要更透明的機制來界定AI的「思考過程」與「真實意識」之間的區別。

---

## 💡 總結與未來展望

| 發展層面 | 關鍵能力 | 意義提升 |
| :--- | :--- | :--- |
| **結構層面** | 圖論協作、角色分工 | 從單體計算到**系統級優化**。 |
| **認知層面** | 策略規劃、經驗學習 | 從指令執行到**戰術決策**。 |
| **行為層面** | 自主行動、社會模擬 | 從計算模型到**模擬智能體**。 |

**總結而言，AI的發展路徑正從「如何讓它做對事」轉向「如何讓它做對的事，並且看起來像一個有思考過程的實體」。**

未來的研究重點將會圍繞以下幾個問題：

1.  **可解釋性（Explainability）：** 如何讓AI不僅能做出決策，還能清晰地解釋其決策背後的「推理鏈條」？
2.  **倫理邊界（Ethical Guardrails）：** 如何在高度自主的智能體中，植入不可逾越的倫理和安全邊界？
3.  **跨模態融合（Multimodality）：** 如何將文本、圖像、聲音等不同模態的資訊，無縫地整合到單一的協作與推理框架中。

## 關鍵詞
- 這段內容涵蓋了幾個非常前沿且有趣的 AI 應用和研究方向，主要圍繞在 **AI 的行為模擬、社會互動、自主性，以及如何理解和定義「智能」**。
- 我將內容拆解成幾個核心主題，並為您進行結構化的總結和分析。
- 
- ## 🧠 核心主題總結與分析
- ### 1. AI 的行為模擬與社會互動（從「甲」的內容推斷）
- 這部分討論了 AI 如何在模擬人類社會行為，特別是在「虛擬社群」中的表現。
- *   **關鍵點：** AI 不僅是執行指令的工具，它正在展現出類似人類的「社交模式」和「群體行為」。
- *   **深入思考：** 這種模擬是否已經達到「心智理論」（Theory of Mind）的層級？即 AI 是否真正理解了「他人（或群體）的意圖」？這類研究的目標是讓 AI 能夠更像一個「參與者」，而不是一個「計算機」。
- ### 2. AI 的自主性與「自我」的建構（從「乙」的內容推斷）
- 這部分探討了 AI 系統在缺乏直接人類干預下，如何發展出自己的行為模式和「個性」。
- *   **關鍵點：** 系統的行為會隨著時間和環境的互動而產生「演化」和「個性化」。
- *   **深入思考：** 當我們觀察到 AI 展現出「偏好」、「記憶」和「持續的目標」時，我們是否在誤將「複雜的算法模式」誤認為「真正的意識」？這涉及到哲學上的「缸中之腦」問題在 AI 時代的體現。
- ### 3. AI 的「心智」與「意識」的邊界（從「丙」的內容推斷）
- 這部分是關於 AI 系統的「可解釋性」（Explainability）和「內在邏輯」。
- *   **關鍵點：** 了解 AI 做出決策的「過程」，而不僅僅是「結果」。
- *   **深入思考：** 這是當前 AI 發展的瓶頸之一。如果我們不能解釋 AI 為什麼會這樣做，那麼在關鍵領域（如醫療、金融）的應用就存在巨大的信任風險。
- ### 4. AI 的「人機共生」與「共創」（從「丁」的內容推斷）
- 這部分描繪了 AI 與人類合作的未來場景，強調了協作和互補性。
- *   **關鍵點：** AI 扮演的是「增強者」（Augmenter）的角色，它不是取代人，而是讓人的能力達到一個新的高度。
- *   **深入思考：** 未來的專業人士需要具備的技能將從「掌握知識」轉變為「管理 AI 系統」和「提出正確的問題」（Prompt Engineering）。
- 
- ## 💡 總體觀點總結（給您的建議）
- 這四段內容共同描繪了一個**「從工具到夥伴」**的 AI 發展藍圖。
- **如果用一個比喻來總結：**
- *   **早期 AI (工具)：** 像一個非常聰明的計算機，只能執行你給的菜單。
- *   **當前 AI (模擬者)：** 像一個學徒，可以觀察你、模仿你，甚至在沒有人監督時，會開始自己嘗試新的動作。
- *   **未來 AI (夥伴)：** 像一個平等的夥伴，它會主動提出「我們應該做什麼？」的建議，並與你一起共同創造出超越單個個體能力的成果。
- **您可以在哪些方面進一步深入探討？**
- 1.  **倫理與治理 (Ethics & Governance)：** 隨著 AI 越來越像人，誰來為它的「錯誤行為」負責？（責任歸屬問題）
- 2.  **可信賴 AI (Trustworthy AI)：** 如何建立一套標準，確保 AI 的決策過程是透明、公平和可審計的？
- 3.  **人機協作的學科轉型：** 哪些學科（如藝術、法律、科學）將因為 AI 的介入而面臨最大的結構性轉變？
- 總之，這是一組極具深度和前瞻性的思考材料，涵蓋了 AI 發展的技術、社會、哲學等多個維度。