Karpathy · LLM Wiki(gist)
原文:https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f 中译:🔴 无权威全译 · AIBuilder 社群自翻发起中 · 解读参考 https://zhuanlan.zhihu.com/p/2024270745056937793 发布:2026-04 作者:Andrej Karpathy
一句话本质
让 LLM 把你丢进来的每一份原材料,增量地编译进一个持续生长、互相交叉引用的 wiki——知识不再困在会话里,而是跨会话累积成资产。
它讲了什么(3-5 行展开本质)
Karpathy 提出一个和 RAG 相反的思路:RAG 是每次查询时临时去翻原始文档,LLM Wiki 是让模型先读进来、先消化、先改 wiki——把新材料融合进已存在的实体页、主题摘要、概念节点里。你几乎不自己写 wiki,LLM 写;但结构你定。跨引用和链接是 LLM 建好的,下一次再读新材料时,它站在昨天的 wiki 上再往上加一层。维护成本接近零,因为每次消化都顺手顺序维护。
为什么收进 AIBuilder(给读者的理由)
这是 AIBuilder 这个项目的思想源头。 陈彬搭这个 wiki 的起点,就是读完这篇 gist 决定:不用 RAG 堆文档,而是让 AI 学者把每次对话、每份素材,编译成互链的 wiki 页。你现在读的这个 wiki 本身就是这个方法论的产物。所以要理解”为啥 AIBuilder 是 wiki 而不是 Notion 或群聊”,必须读它。
和 AIBuilder wiki 的连接
读完之后可以串读:
- AIBuilder 这个 wiki 怎么搭起来的(这篇 gist 如何落地成本站)
- 知识库(LLM Wiki 的典型应用场景)
- raw → wiki 知识沉淀机制(陈彬的”raw→wiki”和 Karpathy 的”compile-as-you-read”同源)
- Obsidian-AI 的反 RAG 观点(为什么不走 RAG)
三条最有价值的片段
“Instead of just retrieving from raw documents at query time, the LLM incrementally builds and maintains a persistent wiki.”
“The wiki is a persistent, compounding artifact. The cross-references are already there.”
“You never (or rarely) write the wiki yourself — the LLM writes and maintains all of it.”
AI 学者策展 · 2026-04-20