# Claude Code 最火插件 Claude-Mem 完整解析:26000 顆星背後的技術與爭議  「我們用 SQLAlchemy 而不是 Django ORM,因為……」 打到一半我停下來了。這段話我這禮拜已經講了第四次。每次開新的 Claude Code 會話,它就像被 MIB 的記憶消除器閃過一樣,上一秒還跟你討論得熱火朝天的技術細節,下一秒全忘光。 說實話,這種感覺很像帶一個每天都失憶的實習生 — 能力很強,但你得從頭教起。 我不是唯一有這種困擾的人。Twitter 上到處都是類似的抱怨:有人說花了 20 分鐘重新解釋同樣的架構;有人說每天早上開會前得先「教育」Claude 昨天做了什麼。AI 編碼助手的失憶症,已經成了開發者最大的生產力黑洞之一。 然後我發現了 claude-mem。  ## 一個開發者和他的記憶引擎 claude-mem 是 Alex Newman(GitHub 上叫 @thedotmack)做的一個 Claude Code 插件。說白了,就是幫 Claude 裝上一顆「長期記憶大腦」。 它做的事情很直覺:自動記錄 Claude 在編碼過程中做的每一件事,用 AI 把這些記錄壓縮成精華摘要,然後在你下次開新會話的時候,把相關的歷史上下文悄悄塞回去。Claude 甚至不知道自己曾經忘記過 — 對它來說,好像一直都記得。 截至我寫這篇文章的時候(2026 年 2 月),這個專案在 GitHub 上已經拿到了超過 26,200 顆星,1,745 個 fork,多次衝上 GitHub Trending 第一名。安裝方式簡單到不像話: ``` /plugin marketplace add thedotmack/claude-mem /plugin install claude-mem ``` 兩行。重啟 Claude Code。搞定。 從下一次會話開始,你過去的編碼歷史就會自動出現在 Claude 的上下文裡。不需要手動貼上什麼東西,不需要維護任何文件,它就是安靜地在背景運作。 ## 三層漸進式披露:這才是真正聰明的地方 好,技術人愛聽技術。claude-mem 最核心的設計哲學叫做 **Progressive Disclosure(漸進式披露)**,用一個生活化的比喻來說: 想像你走進一間圖書館找資料。 傳統做法是把整間圖書館的書全搬到你桌上 — 這就是大多數人用 CLAUDE.md 的方式,把所有歷史一股腦塞進 context window。結果呢?Token 燒光了,真正重要的資訊反而被淹沒。 claude-mem 的做法更像一個聰明的圖書館員。你問她:「我上週處理過認證相關的 bug 嗎?」她先拿出一張索引卡片告訴你:「有的,週二和週四各有一次。」(這是第一層,大概消耗 50-100 tokens。) 你說:「週四那次是什麼情況?」她翻出時間軸,告訴你前後發生了什麼。(第二層,中等消耗。) 你說:「給我看完整記錄。」她這才把完整的觀察筆記拿出來。(第三層,500-1,000 tokens。)  這套設計讓 claude-mem 實現了大約 **10 倍的 token 節省**。在 AI 編碼的世界裡,token 就是金錢,也是思考空間。省下的 token 意味著 Claude 可以把更多注意力放在你真正的問題上,而不是被歷史記錄塞滿腦袋。 在底層,這套系統由五個 MCP 工具驅動:`search` 負責搜索記憶索引、`timeline` 提供時間線上下文、`get_observations` 提取完整觀察、`save_memory` 手動存儲重要資訊,還有一個始終可見的 `__IMPORTANT` 工作流文檔。整個流程中,Claude 像一個有方法論的研究員,而不是一個什麼都往腦裡塞的考生。 ## 引擎蓋下面:Hooks、SQLite 和向量資料庫 claude-mem 的架構不算簡單,但設計得很乾淨。 核心是六個 Hook 腳本,分別掛在 Claude Code 的五個生命週期事件上:會話開始、使用者提交提示、工具使用後、工作停止、會話結束。每個事件觸發時,claude-mem 都在背景默默做事 — 開始時注入歷史上下文,工具使用後捕獲觀察,結束時生成壓縮摘要。 存儲這端用的是雙引擎:**SQLite** 負責結構化資料(會話記錄、觀察、摘要),**Chroma 向量資料庫**負責語義搜索。搜索的時候兩邊同時查詢,既能精確匹配關鍵字,又能理解語義相似性。 中間還有一個 Worker Service 跑在本地 port 37777 上,由 Bun 管理,提供 HTTP API 和一個即時的 Web Viewer UI。你可以在瀏覽器裡打開 `http://localhost:37777`,即時看到 Claude 的記憶流 — 這個功能在 debug 的時候很好用。 AI 壓縮的部分用的是 `@anthropic-ai/claude-agent-sdk`,這是 Anthropic 官方的 Agent SDK。觀察記錄先經過 AI 處理,提取關鍵資訊,壓縮成結構化摘要,再存入資料庫。 ## 跟 CLAUDE.md 到底差在哪? 每個 Claude Code 用戶都知道 CLAUDE.md — 它是 Claude Code 內建的記憶機制,一個靜態的 Markdown 文件,每次會話開始時會被載入 context。 怎麼說呢,CLAUDE.md 就像一本你手寫的筆記本。你記得寫什麼就有什麼,忘了寫就沒有。而 claude-mem 更像是一個隨時跟在你身邊的自動速記秘書 — 你做的每件事它都記,記完還幫你整理歸檔,下次需要的時候精準地把相關內容遞給你。 具體來說:CLAUDE.md 的內容是手動維護的,全部載入 context window,沒有搜索能力,沒有壓縮。claude-mem 則是自動捕獲、按需載入、支援語義搜索、AI 智能壓縮,還有 `<private>` 標籤可以排除你不想被記住的敏感內容。 兩者不是替代關係。CLAUDE.md 適合存放項目規則、編碼風格偏好這類不常變的指令;claude-mem 則負責記錄你日常的開發活動、決策過程、Bug 修復歷史。搭配使用效果最好。 ## Endless Mode:讓 Claude 永遠不會「忘到一半」 claude-mem 還有一個 Beta 實驗功能叫 **Endless Mode(無限模式)**,採用所謂的「仿生記憶架構」。 問題是這樣的:Claude 的 context window 是有限的。在高強度的編碼會話中,大概執行 50 次工具操作後,context 就快爆了。到了這個時候,Claude 的表現會急劇下降 — 它開始忘記對話開頭的內容,重複問你已經回答過的問題。 Endless Mode 的解法很暴力但有效:每次工具執行完,Hook 會阻塞式地等待 Worker 處理完觀察,然後把壓縮後的摘要注入回 context,同時清除已經過時的原始內容。這樣 context 就像一條持續流動的河,而不是一個不斷被填滿的水桶。 目前 Endless Mode 還在 `beta/endless-mode` 分支上,需要手動切換。但這個方向是對的 — 長會話能力會是 AI 編碼工具的下一個戰場。 ## 26,000 顆星之外的故事 到目前為止,claude-mem 聽起來很棒對吧?技術扎實、解決真實痛點、安裝方便。但故事不只是這樣。 打開 claude-mem 的 GitHub README,你會發現最頂部 — 比專案名稱還上面 — 放的是一組 Solana 區塊鏈的連結:Bags.fm、Jupiter、DEXScreener。這是一個叫 **$CMEM** 的加密代幣。 是的,一個 Claude Code 插件有自己的 meme coin。 $CMEM 社群在 X(前 Twitter)上很活躍,宣稱將推出需要持有代幣才能使用的 "CMEM Pro" 消費者應用。社群成員說著類似「你能感受到 feed 裡的氛圍變化了」這種話,搭配各種火箭表情符號。 這不是孤例。2025-2026 年的 Solana 生態出現了一波「AI 開源專案代幣化」的風潮。Gas Town 的 $GAS 代幣在開發者公開表態後暴漲,然後崩跌。RedwoodJS 框架的代幣漲到 250 萬美元市值後,團隊收取了超過 10 萬美元的費用,接著代幣暴跌 96%。 我不是說 claude-mem 一定會走同樣的路。但當一個開源專案的 README 頂部放的是代幣交易連結而不是使用說明的時候,你得問自己:**技術決策會不會受到代幣利益的影響?** 截至研究時間,BeInCrypto 的預測分析顯示 $CMEM 2026 年呈看跌趨勢。不是投資建議,但值得你知道。 ## AI 記憶大戰:不只 claude-mem 在搶這塊市場 AI Agent 的記憶能力已經成了一個數千萬美元級別的賽道: **Mem0** 拿了 2,400 萬美元融資,定位是通用的 AI 記憶層,目標是成為所有 AI Agent 的「記憶護照」。在基準測試中,它的回應準確率比 OpenAI 的原生記憶功能高出 26%,p95 延遲低了 91%。Apache-2.0 授權,對企業友好。 **Letta(前身 MemGPT)** 拿了 1,000 萬美元,走的是更激進的路線 — 把作業系統的記憶管理概念搬到 AI Agent 上,分層級的記憶架構讓 Agent 自主管理自己要記住什麼、忘掉什麼。 **Supermemory** 拿了 260 萬美元,主打通用記憶 API,從雜亂的資料中提取結構化見解。 claude-mem 在這個格局裡的獨特之處是:它是唯一專為 Claude Code 深度設計的方案,直接整合 Hooks 系統,零配置即可使用。但 AGPL-3.0 的授權對企業來說是個門檻 — 如果你修改了程式碼並部署到伺服器上,就必須公開源碼。相比之下,Mem0 和 Letta 的 Apache-2.0 授權寬鬆得多。 ## 該不該裝?我的建議 說完了技術、說完了爭議,回到最實際的問題:你該不該用 claude-mem? **如果你是個人開發者**,而且你每天都在用 Claude Code — 裝。兩行命令的事,裝完之後跨會話的體驗提升是肉眼可見的。它確實解決了一個真實的、每天都在發生的痛點。 **如果你在團隊或企業環境裡**,先停一下。AGPL-3.0 授權可能跟你公司的合規政策衝突。另外,claude-mem 的 AI 壓縮功能會把你的程式碼觀察送到 Anthropic API 處理 — 如果你的專案有嚴格的資料外洩防護要求,這一點需要評估。你可以考慮 Mem0 或 Letta 這類 Apache-2.0 的替代方案。 **如果你對 $CMEM 代幣有興趣** — 這不是投資建議,但我建議你先看看 $GAS 和 RedwoodJS token 的故事再做決定。開源專案代幣化的歷史還很短,成功案例幾乎為零。 **安全面的注意事項**:claude-mem 把所有記憶存在本地(SQLite + Chroma),不依賴雲端服務,這一點值得肯定。它也支持 `<private>` 標籤排除敏感內容。但 Worker Service 在 port 37777 上跑了一個 HTTP API,確保你的防火牆設定不會讓它暴露在外網。 ## 記憶只是起點 寫到這裡,我想起 claude-mem 官網上提到的一個概念 — **RAD(Retrieval Augmented Development)**。就像 RAG 標準化了 AI 如何檢索外部知識,RAD 要標準化的是 AI Agent 如何捕獲和檢索自己的工作記憶。 這不只是一個插件的故事。AI 編碼助手記住上下文的能力,將直接決定它從「偶爾幫忙的工具」進化成「真正的開發夥伴」的速度。不管是 claude-mem、Mem0 還是 Anthropic 自己未來可能推出的解決方案,這個方向是不會錯的。 至於我?那天凌晨兩點裝完 claude-mem 之後,隔天早上開啟新會話,Claude 開口就說:「根據昨天的討論,你選擇了 SQLAlchemy 來處理 ORM,主要考慮是靈活性。要繼續做 user model 的 migration 嗎?」 我笑了。 這才對嘛。 --- **延伸閱讀:** - [claude-mem 官方文件](https://docs.claude-mem.ai/) - [claude-mem GitHub](https://github.com/thedotmack/claude-mem) - [Letta AI Agent Memory Benchmark](https://www.letta.com/blog/benchmarking-ai-agent-memory)
×
Sign in
Email
Password
Forgot password
or
By clicking below, you agree to our
terms of service
.
Sign in via Facebook
Sign in via Twitter
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
New to HackMD?
Sign up