---
# System prepended metadata

title: 從卡片盒到 LLM Wiki：知識管理的永恆輪迴
tags: [' AI', ' RAG', ' Karpathy', LLM Wiki, ' Obsidian', ' Zettelkasten', ' 知識管理']

---

---
title: 從卡片盒到 LLM Wiki：知識管理的永恆輪迴
description: Karpathy 的 LLM Wiki 不是第一個承諾解決知識管理問題的方案，也不會是最後一個。六十年來，每一代工具都把門檻降低了，但失敗的原因從來不是工具不夠好。
tags: LLM Wiki, AI, 知識管理, Zettelkasten, Karpathy, RAG, Obsidian
lang: zh-tw
---

# 從卡片盒到 LLM Wiki：知識管理的永恆輪迴

###### tags: `LLM Wiki` `AI` `知識管理` `Zettelkasten` `Karpathy` `RAG`

> 2026-04-12｜基於 Karpathy LLM Wiki gist、Consensus 學術文獻分析、Hacker News / Reddit / GitHub 生態系調查

[TOC]

---

## 你的記事本墳場

你一定做過這件事。

看到一篇好文章，按下收藏。截圖一段金句，丟進某個資料夾。然後再也沒打開過。你的手機裡有多少沒讀完的文章？Notion 裡有多少空白頁面？

這不是你個人的問題。過去六十年來，每隔一段時間就會有人站出來說：「我找到解決方法了。」這篇文章講的，就是這個反覆出現的故事。

---

## 第一幕：一個德國教授的木箱（1960s）

Niklas Luhmann 是德國的社會學家，一輩子出版了超過七十本書、四百多篇論文，研究橫跨法律、政治、經濟、藝術、宗教。

他的秘密是一個木箱。

Luhmann 把每個想法寫在一張索引卡片上，手掌大小。每張卡片有編號，卡片之間用編號互相引用，就像手寫版的超連結。他一輩子累積了九萬張卡片。這套方法後來被叫做 ==Zettelkasten==（德文，「卡片盒」的意思）。

但 Luhmann 不是因為有了卡片盒才變厲害。是每天手寫卡片、手動建連結這個過程，逼他不斷問自己：「這個想法跟我已經知道的東西有什麼關係？」痛苦，但正是這種痛苦讓知識從「看過」變成「真的懂」。

:::info
**Generation effect**：認知科學的發現——自己主動產出的資訊，記得比被動讀到的牢得多。Luhmann 的卡片盒就是一台強迫你啟動 generation effect 的機器。
:::

問題是，太累了。九萬張卡片不是一般人做得到的。大多數人試了 Zettelkasten，撐不過一個月就放棄。手動維護連結、定期回顧、整理分類，這些苦工的成本實在太高。

於是人們開始想：有沒有工具可以幫忙？

---

## 第二幕：一本賣了百萬冊的書（2020s）

快轉到 2020 年代。Tiago Forte 出版了 *Building a Second Brain*（打造第二大腦），成了全球暢銷書。

主張很簡單：用 Notion、Obsidian、Roam Research 這些數位工具，把你看到的所有東西存進去，標籤和連結自動組織，需要時搜尋就好。工具會幫你做 Luhmann 手動做的那些事。

你去 Reddit 搜 "abandoned Notion"，會看到無數人分享同一個故事：花了整個週末設計完美的模板、建了十幾個 database、設定好自動化流程，然後兩週後再也沒打開。

問題在哪？設定工具太爽了。搬資料、調格式、設計 template，每一步都給你一種「我正在建立知識體系」的感覺。但你只是在做裝潢，房子裡沒人住。

:::warning
Second Brain 運動暴露了一件事：Luhmann 的方法有效，不是卡片盒這個系統多厲害，是手動整理的苦工本身就是學習。用工具跳過苦工，也就跳過了學習。
:::

然後到了 2026 年，有人提出了更激進的想法。

---

## 第三幕：一個 AI 大神的提案（2026）

2026 年 4 月，Andrej Karpathy 在 GitHub 上發了一個檔案。

Karpathy 是 Tesla 前 AI 總監、OpenAI 的創始成員之一，在 AI 圈大概是最有影響力的技術人物。他發什麼，整個科技圈都會看。

這個檔案叫 LLM Wiki。想法一句話講完：

> 別再自己整理筆記了。讓 AI 替你維護一整個知識庫。

他提出三層架構：

| 層 | 內容 | 誰負責 |
|:--|:--|:--|
| 原始資料（Raw Sources） | 你收集的文章、論文、筆記 | 人類收集，放著不動 |
| Wiki | AI 自動生成的知識庫，互相連結、持續更新 | AI 全權維護 |
| 設定檔（Schema） | 告訴 AI 怎麼組織 wiki 的規則 | 人 + AI 共同演進 |

你丟一篇新文章進去，AI 會讀完它、寫摘要、更新所有相關頁面的交叉引用、標記跟舊資料矛盾的地方，然後記錄下來。一份資料可能同時動到十幾個頁面。問知識庫問題，AI 會查找相關頁面、綜合回答、附上引用。好的回答還能存回 wiki，讓知識越滾越大。

Karpathy 把這跟現在主流的 ==RAG==（Retrieval-Augmented Generation，檢索增強生成）做對比。RAG 是每次你問問題，AI 才去原始資料裡翻找相關段落，臨時拼湊答案。LLM Wiki 是事先把知識「編譯」好，問的時候直接用。

用寫程式的話說：RAG 是直譯器（interpreter），每次都重新翻譯；LLM Wiki 是編譯器（compiler），翻譯一次，之後直接跑。

:::spoiler 原始 Gist 連結
{%gist karpathy/442a6bf555914893e9891c11519de94f %}
:::

---

## 一週後的現實

Karpathy 的 gist 發布不到十天，GitHub 上冒出超過 139 個直接引用的專案，相關的加起來破千。

但你仔細看這些專案在做什麼，分布挺有意思：

| 人們在做的事 | 大概比例 |
|:--|:--|
| 開發「幫你建 wiki」的工具 | ~60% |
| 做知識圖譜視覺化 | ~15% |
| 真的在用 wiki 管理自己的知識 | ~15% |
| 嘗試企業/團隊應用 | ~10% |

大多數人在建造鏟子，不是在挖金礦。

Hacker News 上有人說得很直接：

> "More fun to build than to actually use."
> （建造比使用有趣多了。）

Reddit 上有人把整套系統跑起來，得到一個看起來很壯觀的知識網路，然後開始懷疑：「這真的是我的知識嗎？還是 AI 組織出來的東西？」

真正用超過兩週再分享心得的人，幾乎找不到。畢竟才過一週。但早期使用者已經踩到一些坑：

:::danger
**早期使用者踩到的坑**
- AI 每次重寫摘要都會丟掉一些細節，幾輪下來變成「正確但空洞」的文字
- AI 第一次讀資料時的誤判，會被寫進 wiki，後面所有頁面都建立在這個錯誤上
- 沒有額外的維護機制，頁面之間的矛盾和重複越來越多
- 有人直接說這會製造 "a weird new type of tech debt"
:::

---

## 三代人，同一個坑

把三個時代擺在一起看：

| | Zettelkasten (1960s) | Second Brain (2020s) | LLM Wiki (2026) |
|:--|:--|:--|:--|
| 承諾 | 手動建連結 = 深度思考 | 數位工具自動化連結 | AI 連整理都幫你做 |
| 門檻 | 極高（每天手寫卡片） | 中等（需要學工具） | 極低（丟資料就好） |
| 人的角色 | 全部自己來 | 設計系統，手動輸入 | 策展資料，問問題 |
| 實際瓶頸 | 太累，人會放棄 | 太爽，沉迷設定而非內容 | 太自動，可能什麼都沒學到 |
| 放棄模式 | 一個月就停寫卡片 | 兩週後再也沒開 Notion | 一週內就在造工具而不是用 |

每一代都把門檻降低了，把苦工交給更強的工具。但每一代的失敗模式都不是工具不夠好，是人跟知識的關係出了問題。

```mermaid
graph LR
    A["Zettelkasten<br/>1960s<br/>手動苦工"] -->|太累放棄| B["Second Brain<br/>2020s<br/>數位工具"]
    B -->|沉迷設定| C["LLM Wiki<br/>2026<br/>AI 全自動"]
    C -->|什麼都沒學到?| D["???<br/>下一代"]
    
    style A fill:#f9f,stroke:#333
    style B fill:#bbf,stroke:#333
    style C fill:#bfb,stroke:#333
    style D fill:#fbb,stroke:#333
```

---

## 別只是讀，試著感受

上面那張表用文字比較了三個時代。但文字說不清楚的是那個「感覺」——手動整理跟一鍵自動，操作起來到底差在哪。

下面兩個小遊戲讓你自己體驗。不用回答問題，不會計分，花個兩三分鐘就好。

:::info
**迷霧花園** — 三次走進同一座花園。第一次你自己種、自己連；第二次機器幫忙；第三次 AI 全包。看看哪座花園留下了你的腳印。
:::

<iframe width="100%" height="550" src="https://script.google.com/macros/s/AKfycbyeJoh935AJRM1Bu-UQBYkfisfDaWxDUFDWrRZ9Xl50zwApB7pxASB5d3lFE9shslM/exec?p=B" frameborder="0"></iframe>

:::info
**連線遊戲** — 三輪連線。第一輪你自己讀、自己連；第二輪你確認 AI 的建議；第三輪 AI 一鍵生成。最後看看：你讀過的，霧會散；你沒碰過的，再漂亮也不是你的。
:::

<iframe width="100%" height="550" src="https://script.google.com/macros/s/AKfycbyeJoh935AJRM1Bu-UQBYkfisfDaWxDUFDWrRZ9Xl50zwApB7pxASB5d3lFE9shslM/exec?p=C" frameborder="0"></iframe>

玩完之後，下面的學術研究會告訴你：你剛剛感受到的，認知科學早就知道了。

---

## 學術界怎麼看

這不只是網路上的爭論。學術研究在幾個問題上已經有證據。

### 認知卸載是雙面刃

把記憶和組織工作外包給外部系統（筆記 app、AI），短期效率確實提升。但完全依賴外部系統，長期的深層學習能力會下降[^peng]。

機制是這樣的：當你自己掙扎著把一個概念用自己的話寫出來（generation effect），或者在似懂非懂的狀態下反覆提取記憶（desirable difficulties），大腦才會真的把這個知識裝進去。

讓 AI 全部做完，就是跳過了這些掙扎。你的 wiki 很漂亮，但你的腦子可能是空的。

### 自動摘要的錯誤會累積

研究指出，LLM 反覆摘要、重寫自己產出的內容時，資訊會逐步失真[^brown]。學術上這被類比為「模型崩潰」（model collapse）。Wiki 的情境跟模型訓練不完全一樣，但「每次重寫都丟掉一些東西」的機制是相通的。

### RAG 在專業領域仍然更可靠

在醫療、法律等需要高精確度的領域，多項實證研究顯示 RAG 架構的事實正確率和可追溯性優於預先編譯的知識庫[^lyu] [^yang]。原因很直覺：RAG 每次都回去讀原文，wiki 讀的是 AI 的摘要。

### 小規模個人知識庫可能是最合適的場景

不過，在語料穩定、規模不大、會被反覆查詢的場景下，預先編譯的知識庫確實比即時檢索有效率[^zhao]。個人研究筆記、課程整理、讀書筆記，恰好是 LLM Wiki 最適合的用途。

:::spoiler 學術證據強度整理
| 主張 | 證據強度 | 來源數 |
|:--|:--|:--|
| RAG 降低幻覺、提升專業 QA 正確率 | 強 (9/10) | 7+ 篇 |
| LLM 內建知識對常見問題已足夠 | 中等 (7/10) | 2 篇 |
| 多輪自動摘要導致資訊遺失和偏見累積 | 中等 (7/10) | 3 篇 |
| 自動化筆記工具過度依賴會削弱深層學習 | 中等 (5/10) | 2 篇 |
| 靜態知識庫難以應對快速變動領域 | 強 (8/10) | 4 篇 |

*資料來源：Consensus 平台系統性文獻分析，涵蓋 2020–2025 年 50 篇論文*
:::

---

## 那到底該怎麼辦？

如果你看到這裡還在想「所以我到底要不要建 LLM Wiki」，先問自己要什麼。

想要一個查得到東西的外部記憶體？LLM Wiki 很適合。讓 AI 幫你整理、建連結、維護摘要，你當策展人就好：決定什麼值得放進來，定期看看 AI 有沒有搞錯。對研究者、分析師、任何需要追蹤大量資料的人有用。

想要真的理解一個領域？那苦工不能全部交出去。可以用 AI 做初步整理，但用自己的話重新表述、找出矛盾、建立自己的連結，這些得你自己來。AI 是助手，不是替身。

還是你只是覺得應該要有一套知識管理系統？那你可能什麼系統都不需要。你需要的可能只是好好讀完手上那本書，然後跟人聊聊你讀到了什麼。大多數人的瓶頸不是「知識沒整理好」，是根本沒有在輸入知識。

---

## 1945 年的一個預言

1945 年，工程師 Vannevar Bush 在《As We May Think》裡想像了一台叫 Memex 的機器。桌子大小的裝置，能儲存你讀過的所有東西，讓你在文件之間建立「聯想小徑」（associative trails），也就是你自己走過的思考路徑，可以保存、回溯、分享。

八十年後，我們有了比 Bush 想像中強大得多的工具。LLM 可以讀懂文件、自動建連結、生成摘要、回答問題。

但 Bush 設計 Memex 時有個前提：那些聯想小徑是人走出來的，不是機器生成的。連結有價值，是因為它反映你自己的思考過程。

Karpathy 的 LLM Wiki 讓機器做了所有的連結。效率高、規模大、省力。但那些連結是 AI 的路徑，不是你的。

工具一代比一代強，苦工一代比一代少。只是有些苦工消失之後，跟著消失的不只是痛苦。

每一代知識管理工具都在問同一個問題：知識到底是存在筆記裡，還是長在腦子裡？

六十年了。

---

### 參考資料

[^peng]: Peng, B. et al. (2024). Graph Retrieval-Augmented Generation: A Survey. *ACM Transactions on Information Systems*.
[^brown]: Brown, A., Roman, M., & Devereux, B. (2025). A Systematic Literature Review of Retrieval-Augmented Generation. *ArXiv*.
[^lyu]: Lyu, Y. et al. (2024). CRUD-RAG: A Comprehensive Chinese Benchmark for RAG. *ACM TOIS*.
[^yang]: Yang, Q. et al. (2025). Dual retrieving and ranking medical LLM with RAG. *Scientific Reports*.
[^zhao]: Zhao, P. et al. (2024). Retrieval-Augmented Generation for AI-Generated Content: A Survey. *ArXiv*.
[^bush]: Bush, V. (1945). As We May Think. *The Atlantic Monthly*.
[^karpathy]: Karpathy, A. (2026). [LLM Wiki](https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f). GitHub Gist.

---

*本文基於學術文獻，社群觀察資料來自 Hacker News、Reddit r/LocalLLaMA 及 GitHub 生態系調查。*