你的位置:十大正规信誉娱乐平台 > 新闻动态 >

Karpathy 最新分享: 我用 LLM 管理个人知识库, 40万字全自动维护

AI大牛AndrejKarpathy最近公布了一套用大模型自动管理知识库的高效方案。这套四步法通过LLM自动编译原始资料、构建结构化Wiki、自然语言交互和知识库体检,实现了近乎全自动的知识管理。从论文到代码库,40万字材料都能自动维护更新,还能生成幻灯片和交互式内容,堪称数字时代的研究神器。

前OpenAI、特斯拉AI总监AndrejKarpathy最近在X上分享了一套用大模型管理个人知识库的实战方法。他的某个研究主题知识库已经积累了100多篇文章、约40万字,全部Markdown格式,基本由LLM自动维护。

这个方案没有什么高深技术,核心就四步。

第一步:建raw/原料库

把所有原始资料——论文、文章、代码仓库、图片——统一丢进raw/文件夹。网页文章用ObsidianWebClipper插件一键转成Markdown,图片也要下载到本地(LLM读图能力现在很强,别浪费)。

第二步:让LLM“编译”知识

Karpathy把这一步叫做compile。就是让LLM读完raw/里所有内容,自动生成一套结构化的Wiki:每份原始资料有摘要和反向链接,核心概念单独成文,目录和交叉链接自动建好。

增量更新也很简单——新加一篇文档,跟LLM说”把这个归档进wiki”,它自己知道放哪、怎么改现有文章。整个过程几乎不需要手动编辑。

前端用Obsidian打开整个文件夹,raw/原始资料和编译后的wiki同时可见,Marp插件还能直接把内容生成幻灯片。

第三步:用自然语言提问

知识库积累到100篇左右之后,效果就出来了:可以直接问复杂问题,LLM会自己去wiki里检索、交叉验证,再综合给出答案。

不需要搭RAG,LLM自己维护索引文件和摘要,在上下文窗口里就能读完关键内容。输出格式也很灵活:Markdown、Marp幻灯片、Matplotlib图表,甚至带交互的HTML都行。这些输出还可以直接丢回wiki继续积累,形成正向循环。

第四步:让LLM给知识库”体检”

LLM还能做健康检查:找出矛盾数据、补全缺失信息、发现新关联,甚至推荐下一步研究方向。Karpathy还顺手用vibecoding搭了个简单搜索引擎,既能自己用网页版查,也能作为工具让LLM处理更复杂的多跳查询。

整套流程用一句话概括:

raw/原始资料→LLM自动编译成MarkdownWiki→CLI工具问答+增量更新→Obsidian可视化

几乎不用手动写字,LLM充当知识管家。

Karpathy本人也说,这套方案目前还是”脚本堆积”的hack状态,但方向非常清晰——让普通人无需编程就能拥有自己的第二大脑。LexFridman等人也在用类似方案,有人甚至把知识库接成跑步时的语音播客,边跑边消化。

对于做研究、长期跟踪某个领域、或者大量生产内容的人来说,这套方案值得认真试试:装Obsidian和WebClipper,建一个raw/文件夹,找一个上下文够长的模型(Claude、Cursor都行),开始编译。

知识库会自己进化,这一点比任何笔记软件都有吸引力。