---
title: 從卡片盒到 LLM Wiki:知識管理的永恆輪迴
description: Karpathy 的 LLM Wiki 不是第一個承諾解決知識管理問題的方案,也不會是最後一個。六十年來,每一代工具都把門檻降低了,但失敗的原因從來不是工具不夠好。
tags: LLM Wiki, AI, 知識管理, Zettelkasten, Karpathy, RAG, Obsidian
lang: zh-tw
---
# 從卡片盒到 LLM Wiki:知識管理的永恆輪迴
###### tags: `LLM Wiki` `AI` `知識管理` `Zettelkasten` `Karpathy` `RAG`
> 2026-04-12|基於 Karpathy LLM Wiki gist、Consensus 學術文獻分析、Hacker News / Reddit / GitHub 生態系調查
[TOC]
---
## 你的記事本墳場
你一定做過這件事。
看到一篇好文章,按下收藏。截圖一段金句,丟進某個資料夾。然後再也沒打開過。你的手機裡有多少沒讀完的文章?Notion 裡有多少空白頁面?
這不是你個人的問題。過去六十年來,每隔一段時間就會有人站出來說:「我找到解決方法了。」這篇文章講的,就是這個反覆出現的故事。
---
## 第一幕:一個德國教授的木箱(1960s)
Niklas Luhmann 是德國的社會學家,一輩子出版了超過七十本書、四百多篇論文,研究橫跨法律、政治、經濟、藝術、宗教。
他的秘密是一個木箱。
Luhmann 把每個想法寫在一張索引卡片上,手掌大小。每張卡片有編號,卡片之間用編號互相引用,就像手寫版的超連結。他一輩子累積了九萬張卡片。這套方法後來被叫做 ==Zettelkasten==(德文,「卡片盒」的意思)。
但 Luhmann 不是因為有了卡片盒才變厲害。是每天手寫卡片、手動建連結這個過程,逼他不斷問自己:「這個想法跟我已經知道的東西有什麼關係?」痛苦,但正是這種痛苦讓知識從「看過」變成「真的懂」。
:::info
**Generation effect**:認知科學的發現——自己主動產出的資訊,記得比被動讀到的牢得多。Luhmann 的卡片盒就是一台強迫你啟動 generation effect 的機器。
:::
問題是,太累了。九萬張卡片不是一般人做得到的。大多數人試了 Zettelkasten,撐不過一個月就放棄。手動維護連結、定期回顧、整理分類,這些苦工的成本實在太高。
於是人們開始想:有沒有工具可以幫忙?
---
## 第二幕:一本賣了百萬冊的書(2020s)
快轉到 2020 年代。Tiago Forte 出版了 *Building a Second Brain*(打造第二大腦),成了全球暢銷書。
主張很簡單:用 Notion、Obsidian、Roam Research 這些數位工具,把你看到的所有東西存進去,標籤和連結自動組織,需要時搜尋就好。工具會幫你做 Luhmann 手動做的那些事。
你去 Reddit 搜 "abandoned Notion",會看到無數人分享同一個故事:花了整個週末設計完美的模板、建了十幾個 database、設定好自動化流程,然後兩週後再也沒打開。
問題在哪?設定工具太爽了。搬資料、調格式、設計 template,每一步都給你一種「我正在建立知識體系」的感覺。但你只是在做裝潢,房子裡沒人住。
:::warning
Second Brain 運動暴露了一件事:Luhmann 的方法有效,不是卡片盒這個系統多厲害,是手動整理的苦工本身就是學習。用工具跳過苦工,也就跳過了學習。
:::
然後到了 2026 年,有人提出了更激進的想法。
---
## 第三幕:一個 AI 大神的提案(2026)
2026 年 4 月,Andrej Karpathy 在 GitHub 上發了一個檔案。
Karpathy 是 Tesla 前 AI 總監、OpenAI 的創始成員之一,在 AI 圈大概是最有影響力的技術人物。他發什麼,整個科技圈都會看。
這個檔案叫 LLM Wiki。想法一句話講完:
> 別再自己整理筆記了。讓 AI 替你維護一整個知識庫。
他提出三層架構:
| 層 | 內容 | 誰負責 |
|:--|:--|:--|
| 原始資料(Raw Sources) | 你收集的文章、論文、筆記 | 人類收集,放著不動 |
| Wiki | AI 自動生成的知識庫,互相連結、持續更新 | AI 全權維護 |
| 設定檔(Schema) | 告訴 AI 怎麼組織 wiki 的規則 | 人 + AI 共同演進 |
你丟一篇新文章進去,AI 會讀完它、寫摘要、更新所有相關頁面的交叉引用、標記跟舊資料矛盾的地方,然後記錄下來。一份資料可能同時動到十幾個頁面。問知識庫問題,AI 會查找相關頁面、綜合回答、附上引用。好的回答還能存回 wiki,讓知識越滾越大。
Karpathy 把這跟現在主流的 ==RAG==(Retrieval-Augmented Generation,檢索增強生成)做對比。RAG 是每次你問問題,AI 才去原始資料裡翻找相關段落,臨時拼湊答案。LLM Wiki 是事先把知識「編譯」好,問的時候直接用。
用寫程式的話說:RAG 是直譯器(interpreter),每次都重新翻譯;LLM Wiki 是編譯器(compiler),翻譯一次,之後直接跑。
:::spoiler 原始 Gist 連結
{%gist karpathy/442a6bf555914893e9891c11519de94f %}
:::
---
## 一週後的現實
Karpathy 的 gist 發布不到十天,GitHub 上冒出超過 139 個直接引用的專案,相關的加起來破千。
但你仔細看這些專案在做什麼,分布挺有意思:
| 人們在做的事 | 大概比例 |
|:--|:--|
| 開發「幫你建 wiki」的工具 | ~60% |
| 做知識圖譜視覺化 | ~15% |
| 真的在用 wiki 管理自己的知識 | ~15% |
| 嘗試企業/團隊應用 | ~10% |
大多數人在建造鏟子,不是在挖金礦。
Hacker News 上有人說得很直接:
> "More fun to build than to actually use."
> (建造比使用有趣多了。)
Reddit 上有人把整套系統跑起來,得到一個看起來很壯觀的知識網路,然後開始懷疑:「這真的是我的知識嗎?還是 AI 組織出來的東西?」
真正用超過兩週再分享心得的人,幾乎找不到。畢竟才過一週。但早期使用者已經踩到一些坑:
:::danger
**早期使用者踩到的坑**
- AI 每次重寫摘要都會丟掉一些細節,幾輪下來變成「正確但空洞」的文字
- AI 第一次讀資料時的誤判,會被寫進 wiki,後面所有頁面都建立在這個錯誤上
- 沒有額外的維護機制,頁面之間的矛盾和重複越來越多
- 有人直接說這會製造 "a weird new type of tech debt"
:::
---
## 三代人,同一個坑
把三個時代擺在一起看:
| | Zettelkasten (1960s) | Second Brain (2020s) | LLM Wiki (2026) |
|:--|:--|:--|:--|
| 承諾 | 手動建連結 = 深度思考 | 數位工具自動化連結 | AI 連整理都幫你做 |
| 門檻 | 極高(每天手寫卡片) | 中等(需要學工具) | 極低(丟資料就好) |
| 人的角色 | 全部自己來 | 設計系統,手動輸入 | 策展資料,問問題 |
| 實際瓶頸 | 太累,人會放棄 | 太爽,沉迷設定而非內容 | 太自動,可能什麼都沒學到 |
| 放棄模式 | 一個月就停寫卡片 | 兩週後再也沒開 Notion | 一週內就在造工具而不是用 |
每一代都把門檻降低了,把苦工交給更強的工具。但每一代的失敗模式都不是工具不夠好,是人跟知識的關係出了問題。
```mermaid
graph LR
A["Zettelkasten<br/>1960s<br/>手動苦工"] -->|太累放棄| B["Second Brain<br/>2020s<br/>數位工具"]
B -->|沉迷設定| C["LLM Wiki<br/>2026<br/>AI 全自動"]
C -->|什麼都沒學到?| D["???<br/>下一代"]
style A fill:#f9f,stroke:#333
style B fill:#bbf,stroke:#333
style C fill:#bfb,stroke:#333
style D fill:#fbb,stroke:#333
```
---
## 別只是讀,試著感受
上面那張表用文字比較了三個時代。但文字說不清楚的是那個「感覺」——手動整理跟一鍵自動,操作起來到底差在哪。
下面兩個小遊戲讓你自己體驗。不用回答問題,不會計分,花個兩三分鐘就好。
:::info
**迷霧花園** — 三次走進同一座花園。第一次你自己種、自己連;第二次機器幫忙;第三次 AI 全包。看看哪座花園留下了你的腳印。
:::
<iframe width="100%" height="550" src="https://script.google.com/macros/s/AKfycbyeJoh935AJRM1Bu-UQBYkfisfDaWxDUFDWrRZ9Xl50zwApB7pxASB5d3lFE9shslM/exec?p=B" frameborder="0"></iframe>
:::info
**連線遊戲** — 三輪連線。第一輪你自己讀、自己連;第二輪你確認 AI 的建議;第三輪 AI 一鍵生成。最後看看:你讀過的,霧會散;你沒碰過的,再漂亮也不是你的。
:::
<iframe width="100%" height="550" src="https://script.google.com/macros/s/AKfycbyeJoh935AJRM1Bu-UQBYkfisfDaWxDUFDWrRZ9Xl50zwApB7pxASB5d3lFE9shslM/exec?p=C" frameborder="0"></iframe>
玩完之後,下面的學術研究會告訴你:你剛剛感受到的,認知科學早就知道了。
---
## 學術界怎麼看
這不只是網路上的爭論。學術研究在幾個問題上已經有證據。
### 認知卸載是雙面刃
把記憶和組織工作外包給外部系統(筆記 app、AI),短期效率確實提升。但完全依賴外部系統,長期的深層學習能力會下降[^peng]。
機制是這樣的:當你自己掙扎著把一個概念用自己的話寫出來(generation effect),或者在似懂非懂的狀態下反覆提取記憶(desirable difficulties),大腦才會真的把這個知識裝進去。
讓 AI 全部做完,就是跳過了這些掙扎。你的 wiki 很漂亮,但你的腦子可能是空的。
### 自動摘要的錯誤會累積
研究指出,LLM 反覆摘要、重寫自己產出的內容時,資訊會逐步失真[^brown]。學術上這被類比為「模型崩潰」(model collapse)。Wiki 的情境跟模型訓練不完全一樣,但「每次重寫都丟掉一些東西」的機制是相通的。
### RAG 在專業領域仍然更可靠
在醫療、法律等需要高精確度的領域,多項實證研究顯示 RAG 架構的事實正確率和可追溯性優於預先編譯的知識庫[^lyu] [^yang]。原因很直覺:RAG 每次都回去讀原文,wiki 讀的是 AI 的摘要。
### 小規模個人知識庫可能是最合適的場景
不過,在語料穩定、規模不大、會被反覆查詢的場景下,預先編譯的知識庫確實比即時檢索有效率[^zhao]。個人研究筆記、課程整理、讀書筆記,恰好是 LLM Wiki 最適合的用途。
:::spoiler 學術證據強度整理
| 主張 | 證據強度 | 來源數 |
|:--|:--|:--|
| RAG 降低幻覺、提升專業 QA 正確率 | 強 (9/10) | 7+ 篇 |
| LLM 內建知識對常見問題已足夠 | 中等 (7/10) | 2 篇 |
| 多輪自動摘要導致資訊遺失和偏見累積 | 中等 (7/10) | 3 篇 |
| 自動化筆記工具過度依賴會削弱深層學習 | 中等 (5/10) | 2 篇 |
| 靜態知識庫難以應對快速變動領域 | 強 (8/10) | 4 篇 |
*資料來源:Consensus 平台系統性文獻分析,涵蓋 2020–2025 年 50 篇論文*
:::
---
## 那到底該怎麼辦?
如果你看到這裡還在想「所以我到底要不要建 LLM Wiki」,先問自己要什麼。
想要一個查得到東西的外部記憶體?LLM Wiki 很適合。讓 AI 幫你整理、建連結、維護摘要,你當策展人就好:決定什麼值得放進來,定期看看 AI 有沒有搞錯。對研究者、分析師、任何需要追蹤大量資料的人有用。
想要真的理解一個領域?那苦工不能全部交出去。可以用 AI 做初步整理,但用自己的話重新表述、找出矛盾、建立自己的連結,這些得你自己來。AI 是助手,不是替身。
還是你只是覺得應該要有一套知識管理系統?那你可能什麼系統都不需要。你需要的可能只是好好讀完手上那本書,然後跟人聊聊你讀到了什麼。大多數人的瓶頸不是「知識沒整理好」,是根本沒有在輸入知識。
---
## 1945 年的一個預言
1945 年,工程師 Vannevar Bush 在《As We May Think》裡想像了一台叫 Memex 的機器。桌子大小的裝置,能儲存你讀過的所有東西,讓你在文件之間建立「聯想小徑」(associative trails),也就是你自己走過的思考路徑,可以保存、回溯、分享。
八十年後,我們有了比 Bush 想像中強大得多的工具。LLM 可以讀懂文件、自動建連結、生成摘要、回答問題。
但 Bush 設計 Memex 時有個前提:那些聯想小徑是人走出來的,不是機器生成的。連結有價值,是因為它反映你自己的思考過程。
Karpathy 的 LLM Wiki 讓機器做了所有的連結。效率高、規模大、省力。但那些連結是 AI 的路徑,不是你的。
工具一代比一代強,苦工一代比一代少。只是有些苦工消失之後,跟著消失的不只是痛苦。
每一代知識管理工具都在問同一個問題:知識到底是存在筆記裡,還是長在腦子裡?
六十年了。
---
### 參考資料
[^peng]: Peng, B. et al. (2024). Graph Retrieval-Augmented Generation: A Survey. *ACM Transactions on Information Systems*.
[^brown]: Brown, A., Roman, M., & Devereux, B. (2025). A Systematic Literature Review of Retrieval-Augmented Generation. *ArXiv*.
[^lyu]: Lyu, Y. et al. (2024). CRUD-RAG: A Comprehensive Chinese Benchmark for RAG. *ACM TOIS*.
[^yang]: Yang, Q. et al. (2025). Dual retrieving and ranking medical LLM with RAG. *Scientific Reports*.
[^zhao]: Zhao, P. et al. (2024). Retrieval-Augmented Generation for AI-Generated Content: A Survey. *ArXiv*.
[^bush]: Bush, V. (1945). As We May Think. *The Atlantic Monthly*.
[^karpathy]: Karpathy, A. (2026). [LLM Wiki](https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f). GitHub Gist.
---
*本文基於學術文獻,社群觀察資料來自 Hacker News、Reddit r/LocalLLaMA 及 GitHub 生態系調查。*