# Claude Code 最火插件 Claude-Mem 完整解析:26000 顆星背後的技術與爭議  「我們用 SQLAlchemy 而不是 Django ORM,因為……」 打到一半我停下來了。這段話我這禮拜已經講了第四次。每次開新的 Claude Code 會話,它就像被 MIB 的記憶消除器閃過一樣,上一秒還跟你討論得熱火朝天的技術細節,下一秒全忘光。 說實話,這種感覺很像帶一個每天都失憶的實習生 — 能力很強,但你得從頭教起。 我不是唯一有這種困擾的人。Twitter 上到處都是類似的抱怨:有人說花了 20 分鐘重新解釋同樣的架構;有人說每天早上開會前得先「教育」Claude 昨天做了什麼。AI 編碼助手的失憶症,已經成了開發者最大的生產力黑洞之一。 然後我發現了 claude-mem。  ## 一個開發者和他的記憶引擎 claude-mem 是 Alex Newman(GitHub 上叫 @thedotmack)做的一個 Claude Code 插件。說白了,就是幫 Claude 裝上一顆「長期記憶大腦」。 它做的事情很直覺:自動記錄 Claude 在編碼過程中做的每一件事,用 AI 把這些記錄壓縮成精華摘要,然後在你下次開新會話的時候,把相關的歷史上下文悄悄塞回去。Claude 甚至不知道自己曾經忘記過 — 對它來說,好像一直都記得。 截至我寫這篇文章的時候(2026 年 2 月),這個專案在 GitHub 上已經拿到了超過 26,200 顆星,1,745 個 fork,多次衝上 GitHub Trending 第一名。安裝方式簡單到不像話: ``` /plugin marketplace add thedotmack/claude-mem /plugin install claude-mem ``` 兩行。重啟 Claude Code。搞定。 從下一次會話開始,你過去的編碼歷史就會自動出現在 Claude 的上下文裡。不需要手動貼上什麼東西,不需要維護任何文件,它就是安靜地在背景運作。 ## 三層漸進式披露:這才是真正聰明的地方 好,技術人愛聽技術。claude-mem 最核心的設計哲學叫做 **Progressive Disclosure(漸進式披露)**,用一個生活化的比喻來說: 想像你走進一間圖書館找資料。 傳統做法是把整間圖書館的書全搬到你桌上 — 這就是大多數人用 CLAUDE.md 的方式,把所有歷史一股腦塞進 context window。結果呢?Token 燒光了,真正重要的資訊反而被淹沒。 claude-mem 的做法更像一個聰明的圖書館員。你問她:「我上週處理過認證相關的 bug 嗎?」她先拿出一張索引卡片告訴你:「有的,週二和週四各有一次。」(這是第一層,大概消耗 50-100 tokens。) 你說:「週四那次是什麼情況?」她翻出時間軸,告訴你前後發生了什麼。(第二層,中等消耗。) 你說:「給我看完整記錄。」她這才把完整的觀察筆記拿出來。(第三層,500-1,000 tokens。)  這套設計讓 claude-mem 實現了大約 **10 倍的 token 節省**。在 AI 編碼的世界裡,token 就是金錢,也是思考空間。省下的 token 意味著 Claude 可以把更多注意力放在你真正的問題上,而不是被歷史記錄塞滿腦袋。 在底層,這套系統由五個 MCP 工具驅動:`search` 負責搜索記憶索引、`timeline` 提供時間線上下文、`get_observations` 提取完整觀察、`save_memory` 手動存儲重要資訊,還有一個始終可見的 `__IMPORTANT` 工作流文檔。整個流程中,Claude 像一個有方法論的研究員,而不是一個什麼都往腦裡塞的考生。 ## 引擎蓋下面:Hooks、SQLite 和向量資料庫 claude-mem 的架構不算簡單,但設計得很乾淨。 核心是六個 Hook 腳本,分別掛在 Claude Code 的五個生命週期事件上:會話開始、使用者提交提示、工具使用後、工作停止、會話結束。每個事件觸發時,claude-mem 都在背景默默做事 — 開始時注入歷史上下文,工具使用後捕獲觀察,結束時生成壓縮摘要。 存儲這端用的是雙引擎:**SQLite** 負責結構化資料(會話記錄、觀察、摘要),**Chroma 向量資料庫**負責語義搜索。搜索的時候兩邊同時查詢,既能精確匹配關鍵字,又能理解語義相似性。 中間還有一個 Worker Service 跑在本地 port 37777 上,由 Bun 管理,提供 HTTP API 和一個即時的 Web Viewer UI。你可以在瀏覽器裡打開 `http://localhost:37777`,即時看到 Claude 的記憶流 — 這個功能在 debug 的時候很好用。 AI 壓縮的部分用的是 `@anthropic-ai/claude-agent-sdk`,這是 Anthropic 官方的 Agent SDK。觀察記錄先經過 AI 處理,提取關鍵資訊,壓縮成結構化摘要,再存入資料庫。 ## 跟 CLAUDE.md 到底差在哪? 每個 Claude Code 用戶都知道 CLAUDE.md — 它是 Claude Code 內建的記憶機制,一個靜態的 Markdown 文件,每次會話開始時會被載入 context。 怎麼說呢,CLAUDE.md 就像一本你手寫的筆記本。你記得寫什麼就有什麼,忘了寫就沒有。而 claude-mem 更像是一個隨時跟在你身邊的自動速記秘書 — 你做的每件事它都記,記完還幫你整理歸檔,下次需要的時候精準地把相關內容遞給你。 具體來說:CLAUDE.md 的內容是手動維護的,全部載入 context window,沒有搜索能力,沒有壓縮。claude-mem 則是自動捕獲、按需載入、支援語義搜索、AI 智能壓縮,還有 `<private>` 標籤可以排除你不想被記住的敏感內容。 兩者不是替代關係。CLAUDE.md 適合存放項目規則、編碼風格偏好這類不常變的指令;claude-mem 則負責記錄你日常的開發活動、決策過程、Bug 修復歷史。搭配使用效果最好。 ## Endless Mode:讓 Claude 永遠不會「忘到一半」 claude-mem 還有一個 Beta 實驗功能叫 **Endless Mode(無限模式)**,採用所謂的「仿生記憶架構」。 問題是這樣的:Claude 的 context window 是有限的。在高強度的編碼會話中,大概執行 50 次工具操作後,context 就快爆了。到了這個時候,Claude 的表現會急劇下降 — 它開始忘記對話開頭的內容,重複問你已經回答過的問題。 Endless Mode 的解法很暴力但有效:每次工具執行完,Hook 會阻塞式地等待 Worker 處理完觀察,然後把壓縮後的摘要注入回 context,同時清除已經過時的原始內容。這樣 context 就像一條持續流動的河,而不是一個不斷被填滿的水桶。 目前 Endless Mode 還在 `beta/endless-mode` 分支上,需要手動切換。但這個方向是對的 — 長會話能力會是 AI 編碼工具的下一個戰場。 ## 26,000 顆星之外的故事 到目前為止,claude-mem 聽起來很棒對吧?技術扎實、解決真實痛點、安裝方便。但故事不只是這樣。 打開 claude-mem 的 GitHub README,你會發現最頂部 — 比專案名稱還上面 — 放的是一組 Solana 區塊鏈的連結:Bags.fm、Jupiter、DEXScreener。這是一個叫 **$CMEM** 的加密代幣。 是的,一個 Claude Code 插件有自己的 meme coin。 $CMEM 社群在 X(前 Twitter)上很活躍,宣稱將推出需要持有代幣才能使用的 "CMEM Pro" 消費者應用。社群成員說著類似「你能感受到 feed 裡的氛圍變化了」這種話,搭配各種火箭表情符號。 這不是孤例。2025-2026 年的 Solana 生態出現了一波「AI 開源專案代幣化」的風潮。Gas Town 的 $GAS 代幣在開發者公開表態後暴漲,然後崩跌。RedwoodJS 框架的代幣漲到 250 萬美元市值後,團隊收取了超過 10 萬美元的費用,接著代幣暴跌 96%。 我不是說 claude-mem 一定會走同樣的路。但當一個開源專案的 README 頂部放的是代幣交易連結而不是使用說明的時候,你得問自己:**技術決策會不會受到代幣利益的影響?** 截至研究時間,BeInCrypto 的預測分析顯示 $CMEM 2026 年呈看跌趨勢。不是投資建議,但值得你知道。 ## AI 記憶大戰:不只 claude-mem 在搶這塊市場 AI Agent 的記憶能力已經成了一個數千萬美元級別的賽道: **Mem0** 拿了 2,400 萬美元融資,定位是通用的 AI 記憶層,目標是成為所有 AI Agent 的「記憶護照」。在基準測試中,它的回應準確率比 OpenAI 的原生記憶功能高出 26%,p95 延遲低了 91%。Apache-2.0 授權,對企業友好。 **Letta(前身 MemGPT)** 拿了 1,000 萬美元,走的是更激進的路線 — 把作業系統的記憶管理概念搬到 AI Agent 上,分層級的記憶架構讓 Agent 自主管理自己要記住什麼、忘掉什麼。 **Supermemory** 拿了 260 萬美元,主打通用記憶 API,從雜亂的資料中提取結構化見解。 claude-mem 在這個格局裡的獨特之處是:它是唯一專為 Claude Code 深度設計的方案,直接整合 Hooks 系統,零配置即可使用。但 AGPL-3.0 的授權對企業來說是個門檻 — 如果你修改了程式碼並部署到伺服器上,就必須公開源碼。相比之下,Mem0 和 Letta 的 Apache-2.0 授權寬鬆得多。 ## 該不該裝?我的建議 說完了技術、說完了爭議,回到最實際的問題:你該不該用 claude-mem? **如果你是個人開發者**,而且你每天都在用 Claude Code — 裝。兩行命令的事,裝完之後跨會話的體驗提升是肉眼可見的。它確實解決了一個真實的、每天都在發生的痛點。 **如果你在團隊或企業環境裡**,先停一下。AGPL-3.0 授權可能跟你公司的合規政策衝突。另外,claude-mem 的 AI 壓縮功能會把你的程式碼觀察送到 Anthropic API 處理 — 如果你的專案有嚴格的資料外洩防護要求,這一點需要評估。你可以考慮 Mem0 或 Letta 這類 Apache-2.0 的替代方案。 **如果你對 $CMEM 代幣有興趣** — 這不是投資建議,但我建議你先看看 $GAS 和 RedwoodJS token 的故事再做決定。開源專案代幣化的歷史還很短,成功案例幾乎為零。 **安全面的注意事項**:claude-mem 把所有記憶存在本地(SQLite + Chroma),不依賴雲端服務,這一點值得肯定。它也支持 `<private>` 標籤排除敏感內容。但 Worker Service 在 port 37777 上跑了一個 HTTP API,確保你的防火牆設定不會讓它暴露在外網。 ## 記憶只是起點 寫到這裡,我想起 claude-mem 官網上提到的一個概念 — **RAD(Retrieval Augmented Development)**。就像 RAG 標準化了 AI 如何檢索外部知識,RAD 要標準化的是 AI Agent 如何捕獲和檢索自己的工作記憶。 這不只是一個插件的故事。AI 編碼助手記住上下文的能力,將直接決定它從「偶爾幫忙的工具」進化成「真正的開發夥伴」的速度。不管是 claude-mem、Mem0 還是 Anthropic 自己未來可能推出的解決方案,這個方向是不會錯的。 至於我?那天凌晨兩點裝完 claude-mem 之後,隔天早上開啟新會話,Claude 開口就說:「根據昨天的討論,你選擇了 SQLAlchemy 來處理 ORM,主要考慮是靈活性。要繼續做 user model 的 migration 嗎?」 我笑了。 這才對嘛。 --- **延伸閱讀:** - [claude-mem 官方文件](https://docs.claude-mem.ai/) - [claude-mem GitHub](https://github.com/thedotmack/claude-mem) - [Letta AI Agent Memory Benchmark](https://www.letta.com/blog/benchmarking-ai-agent-memory)
×
Sign in
Email
Password
Forgot password
or
Sign in via Google
Sign in via Facebook
Sign in via X(Twitter)
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
Continue with a different method
New to HackMD?
Sign up
By signing in, you agree to our
terms of service
.