由卡帕西创建的 LLM Wiki 现已成为 Hermes-Agent 的内置技能,点击标题不妨一试。Hermes Agent集成LLM-Wiki,将零散知识转为可复用的结构化资产。通过三层架构与自动流程,实现知识持续积累,让AI越用越聪明。
Hermes Agent结合Karpathy的LLM-Wiki,本质在做一件非常直接但极其关键的事情:把原本散落在笔记记录里的知识,转化为可以反复调用、持续增长的结构化资产。
Hermes Agent 现在与 Karpathy 的 LLM-Wiki 捆绑在一起,可以使用 Obsidian 创建知识库和研究库!在很短的时间内,Hermes 通过研究网络、代码和我们的论文,创建了大量的研究成果,围绕 Nous 的所有项目创建了这个知识库。
只需运行 hermes update 并输入
code/llm-wiki《research x》/code
在新消息或会话中开始:)
系统就会开始自动执行一系列步骤,包括抓取资料、解析内容、生成页面以及建立链接结构。这一流程的关键优势在于“低门槛”,用户不需要逐步搭建知识库,而是直接触发一个完整的自动化管道。
在短时间内,Hermes可以从网页、代码库和论文中提取信息,并生成大量研究内容。这种能力特别适合需要快速建立领域认知的场景,例如研究新技术栈、分析项目结构或者整理长期学习资料。核心在于,整个过程不仅生成内容,还自动组织内容。
这个过程并不依赖复杂的魔法,而是依赖清晰的分层结构、稳定的文件约束以及可复用的操作流程,从而让知识像代码一样被管理和演化。
整个系统的关键价值在于“可复利/自我学习”。
一次检索不再只是回答问题,而是生成可以沉淀进知识库的页面;
一次总结不再只是临时输出,而是进入长期存储并参与未来推理。
这种机制直接改变使用方式:从“问一次答一次”转向“越用越聪明”,从而让研究、代码分析和资料整理形成持续积累的闭环。
这个“技能”包含三层结构
第一层raw/目录只负责存放原始资料,例如论文、网页抓取内容和代码文件,这些内容必须保持原样,作为整个系统最底层的事实来源。
第二层是由Agent维护的wiki页面,这一层才是真正发生“理解”和“重写”的地方。Agent会把raw中的信息转化为结构化页面,并通过wikilinks进行连接,从而形成知识图谱。
第三层schema config则定义规则,例如frontmatter字段、目录结构和命名方式,这一层相当于“语法规则”,确保整个知识库长期保持一致性,而不会随着时间演变成混乱集合。
详细讲:
第一层叫raw目录,这层干的事情特别简单也特别死板:把原始资料原封不动地扔进去。
论文PDF、网页抓下来的HTML、代码仓库里的源文件,统统往里塞。这一层只有一个规矩——只读不改。你绝对不能手贱去修改raw里的任何内容,哪怕你觉得原文有个错别字,也得忍着。
为什么这么死板?因为raw是整个知识库的“事实源头”。以后如果wiki页面里的信息和原始资料打架了,你翻回raw就能一锤定音。这就像法庭上的原始证据,不能涂改,不能折角,连水都不能洒上去。
很多知识库最后变成一锅粥,就是因为有人偷偷改了原始资料,导致后面所有推理都建立在沙子上。所以raw层就是那块磐石,虽然看起来又笨又重,但没有它,整个系统就站不稳。
第二层是wiki页面,这一层才是AI真正干活的地方。
Agent会把raw里那些乱七八糟的原始资料读一遍,然后用自己的话重新写出来,变成结构化的页面。这些页面不再是单纯的文本,而是包含标题、段落、列表,最关键的是会塞满wikilinks。
wikilinks是什么?就是Obsidian笔记软件里那种双括号链接。点一下就能跳到另一个页面。通过这种链接,Agent能把分散的知识点串成一张网。比如你在看“Transformer”页面,里面会有链接指向“自注意力”、“前馈网络”、“位置编码”等概念。这就像你读一本纸质书,但书里的每个专业术语都自带超链接,点一下就能看到专门解释那一章的附录。而且这些链接不是AI随便瞎连的,而是根据内容的相关性自动生成并持续更新的。当raw里新进来一篇论文,AI会重新扫描所有wiki页面,看哪些旧页面需要跟新内容建立连接。
第三层是schema配置文件,这层最不起眼但最致命。它规定了一系列规则,比如每个wiki页面的开头必须用YAML格式写元数据,包括标题、创建时间、标签、来源文件路径。它还规定了目录结构、命名方式、链接写法。
这听起来像官僚主义,但实际作用是让整个知识库保持“语法一致性”。想象一下,如果每个程序员写代码都用不同的缩进和命名规则,那代码库三天就炸了。schema就是那个统一的代码规范。没有它,wiki页面随着时间推移会变得千奇百怪,有的页面用日期当标题,有的页面用emoji当标签,最后谁也看不懂。
有了schema,AI可以自动检查每个页面是否合规,不合规的就拒绝写入或者自动修正。这就好比一个严苛的语文老师,每次交作文之前都要检查标点符号和段落格式,虽然烦,但保证了全班50个人写的作文看起来像一个人写的。
三个核心操作:录入原始资料、查询已有知识、检查矛盾缺失,让知识库活起来
录入操作是整个流程的起点。
你给AI一个指令,比如“把这篇关于LoRA的论文录入知识库”。AI会先跑到raw目录,把论文原文存进去,确保原始文件一字不差。然后它开始干活:写一篇摘要,更新或者创建跟LoRA相关的实体页面,比如“低秩分解”、“适配器微调”、“参数效率”。同时,它会在所有相关页面之间插入wikilinks,比如在“参数高效微调”页面里加上指向“LoRA”的链接。
最后,它还要更新两个特殊的页面:index.md(相当于图书目录)和log.md(相当于操作日志)。index.md里会记录“LoRA”这个新页面被加到了哪个分类下面,log.md里会写明“某年某月某日,录入了某篇论文”。
这一步看起来琐碎,但正是这些索引和日志,让知识库在几个月后依然能被快速定位和回溯。没有索引,知识库就是个黑洞;没有日志,你根本不知道哪条信息是什么时候进来的,就像冰箱里没有生产日期的酸奶。
查询操作是用户最常用的功能。
你问AI一个问题,比如“LoRA和Adapter哪个更适合微调大模型?”AI不会像个愣头青一样当场去网上搜或者重新读一遍所有论文。它会先去读索引,快速定位到跟LoRA和Adapter相关的wiki页面,然后从这些已经整理好的结构化内容里综合出答案。
更关键的是,AI会把这次问答的结果也存回wiki。怎么存?它会创建一个新页面,标题可能是“LoRA与Adapter对比分析”,里面写上两种方法的优缺点、适用场景、实验数据对比表格。或者如果已经有类似的对比页面,它就更新那个页面,补充新的观点。
这样一来,这次查询的成果就变成了永久资产。下次再有人问同样的问题,AI可以直接甩出这张页面,甚至还能在此基础上做更深入的推理。这种“将综合结果转化为持久成果”的设计,直接把AI从“聊天机器人”升级成了“知识合伙人”。聊天机器人是你问一次它答一次,答完就忘;知识合伙人是你每问一个问题,它不但回答,还把答案整理成内部文档,供以后所有人参考。
检查操作是系统的自检功能,也是最容易被忽视但最能防止知识库腐烂的功能。
AI会定期或者按指令扫描整个知识库,找出三类问题。
第一类是矛盾点,比如一个页面说“LoRA参数量占比0.1%”,另一个页面说“LoRA参数量占比1%”,AI就会标记这个冲突,并尝试根据时间戳或来源权威性来判断哪个更可信。
第二类是未被引用的页面,也就是那些被录入之后就没人理、也没有任何其他页面链接过来的孤儿页面。这些页面很可能已经过时或者不重要,AI会提醒你考虑删除或者合并。
第三类是过时内容,比如某个页面上写着“截至2023年,最大的开源模型是Llama 2”,但现在已经是2026年,AI会建议你更新或者补充新信息。检查操作就像一个勤快的图书管理员,每天在书架间走来走去,把放错的书归位,把破损的书挑出来修补,把灰尘掸掉。
没有这个管理员,再大的图书馆最后都会变成堆满烂纸的仓库。
传统RAG与LLM Wiki模式:一个每次现翻现答,一个一次整理持续复用
传统RAG的工作方式特别像你每次考试前都重新翻一遍所有课本。你问它一个问题,它就赶紧去知识库里搜一堆相关片段,然后现场拼凑出一个答案。这个过程有两个致命缺点。
第一是慢,每次都要重复检索和排序,就像每次做饭都要从种菜开始。
第二是不稳定,同样的一个问题,因为检索到的片段排序或者拼接方式不同,可能得到完全不一样的答案。更搞笑的是,如果你问它“你之前不是说过某某结论吗?”它会一脸茫然,因为它根本没有“之前”这个概念。它的记忆就像金鱼的记忆,只有当前这次对话的几秒钟。每个问题都是独立事件,没有任何积累。这就像你请了个助理,每次你问他事情,他都重新去查一遍档案室,查完给你个答复,然后就把档案室的门关上,下次再重新开。这个助理永远学不会把常用档案放在手边,更不会整理出一份摘要备忘。
LLM Wiki模式则完全不同。它只做一次整理,然后把整理好的结果永久保存成Wiki页面。这些页面不是死的文本,而是活的、互相连接、持续更新的知识网络。比如你把十篇关于LoRA的论文扔进去,AI会先提炼出核心概念,创建“LoRA”页面,里面写清楚定义、数学公式、实验结果。然后它会创建“参数高效微调”页面,把LoRA作为其中一种方法放进去,再创建“适配器”页面、“前缀调优”页面,形成一个家族树。
当你有新论文进来,AI只更新相关的页面,而不是重新搞一遍所有东西。
这种模式的好处是,随着时间的推移,知识库的质量会越来越高。因为每一次录入、每一次查询、每一次检查,都会修正错误、补充遗漏、强化连接。这就像你养了一盆植物,每天浇水施肥,它就会越长越茂盛。而传统RAG就像你每天去买一束鲜切花,插在花瓶里,当天很好看,但第二天就蔫了,你只能再买新的。从“买鲜切花”到“养植物”,就是传统RAG和LLM Wiki模式最根本的区别。
YAML与wikilinks:结构化元数据加图结构,让搜索和推理变成自动化的爽事
YAML frontmatter听起来很高端,其实就是在每个wiki页面的最顶部,用三个短横线包裹起来的一段键值对信息。
举个例子,一个关于“注意力机制”的页面,开头可能是这样的:三个短横线,然后“title: 注意力机制”,下一行“tags: Transformer, 深度学习, 核心算法”,再下一行“source: papers/AttentionIsAllYouNeed.pdf”,最后再三个短横线。这些元数据是人写的,但主要是给机器读的。
Agent可以快速扫描所有页面的YAML头,找出所有带“Transformer”标签的页面,或者找出所有来源于某篇论文的页面。这就好比每本书的扉页上都贴了一个图书馆分类标签,你不用翻开书就知道它属于哪个书架。没有YAML,AI就只能把每个页面的全文都读一遍才能知道它讲什么,那效率低得就像你要在一堆没贴标签的录像带里找一部电影,必须每盘都塞进播放机看几分钟。
wikilinks则是连接这些页面的胶水。写法很简单,就是两个方括号包住页面标题,比如反向传播。
当你在一个页面里写下两个方括号+反向传播,Obsidian或者这个系统就会自动创建一个链接,点击就能跳转到“反向传播”页面。
如果那个页面还没创建,系统会帮你创建一个空白页面,等着你去填内容。这种机制让知识从线性文档变成了网状结构。
你不再需要按照固定的章节顺序去阅读,而是可以像冲浪一样从一个概念跳到另一个概念。
更重要的是,Agent可以在推理过程中利用这些链接。比如你问“Transformer的注意力机制跟循环神经网络有什么不同?”AI会从“Transformer”页面出发,沿着wikilinks跳到“注意力机制”页面,再跳到“循环神经网络”页面,然后对比两个页面的内容。
这个遍历过程是自动化的,不需要你告诉AI先去哪再去哪。就像导航软件知道从A到B要经过哪些路口,你只需要说出起点和终点,剩下的路径规划全是自动的。
文件结构与知识图谱:Obsidian加持下的可视化与零开发成本的关系分析
这套系统天然适配Obsidian,因为Obsidian本身就是基于本地Markdown文件和wikilinks构建的笔记软件。你把Hermes Agent生成的wiki文件夹用Obsidian打开,立刻就能看到一个知识图谱。图谱上每个节点是一个页面,每条边是一个wikilink。节点的大小可以按被引用次数调整,颜色可以按标签分组。你一眼就能看出哪些是核心概念(被很多页面引用),哪些是孤立页面(没人引用)。这种可视化能力不是某个大厂花几千万开发的,而是Obsidian免费提供的。这就像你买了个毛坯房,结果发现开发商已经帮你铺好了地暖、装好了中央空调,你只需要搬家具进去就行。零开发成本带来的好处是,任何个人研究者或者小团队都可以直接使用这套系统,而不需要雇一个前端工程师去画图谱界面。
更妙的是,Obsidian还支持基于YAML的搜索和筛选。你可以写一个查询,比如“找出所有标签包含‘微调’且创建时间在2025年之后的页面”,Obsidian会立刻列出结果。这相当于在你的知识库上跑SQL查询,但语法比SQL简单十倍。而且Obsidian的搜索是实时的,你边打字边出结果。这种能力对于研究特别有用。比如你想回顾过去半年所有关于“量化训练”的研究,只需要搜一下标签和日期范围,所有相关页面就排在你面前,不用去翻几十个文件夹。
另外,Obsidian的图谱还可以做关系分析。你可以选中“LoRA”节点,然后看它跟哪些节点有直接连接,哪些节点通过两步连接。比如LoRA直接连接“低秩分解”和“Adapter”,通过“Adapter”再连接到“Prefix Tuning”。这种分析能帮你发现知识之间的隐藏关联,比如两个看似不相关的技术其实共享同一个数学基础。
所有这些能力,都是Obsidian自带的功能,Hermes Agent只需要按照规范生成YAML和wikilinks,剩下的全交给工具。这就是“约定优于配置”的威力:你遵守约定,工具就给你白送一大堆功能。
可复利与自我学习:从一次检索到永久资产,从临时输出到持续积累的闭环
整个系统最核心的价值就是“可复利”。这个词在金融里指利息生利息,在这里指知识生知识。传统方式下,你问AI一个问题,得到一个答案,这个答案的价值就到此为止了,像一次性筷子。
而在Hermes Agent加LLM Wiki的模式下,每一次检索都会生成一个可以沉淀进知识库的页面。这个页面以后可以被多次引用、更新、组合。
比如你第一次问“什么是LoRA”,AI生成了一张基础页面。第二次你问“LoRA和Adapter哪个好”,AI会引用之前的基础页面,再加上新对比的内容,生成一张更高级的对比页面。第三次你问“在代码生成任务上应该用LoRA还是Adapter”,AI又会引用对比页面,再加上任务相关的实验数据,生成一张更更高级的页面。每一次查询都在之前的基础上叠加,就像复利一样,时间越长,知识库的质量越高。
这种机制直接改变了使用方式,从“问一次答一次”转向“越用越聪明”。
刚开始用的时候,知识库可能只有十几张页面,回答质量一般。但用了一个月之后,知识库里有几百张页面,互相连接成密集的网络。这时候你再问一个问题,AI的答案不再是基于原始资料的拼凑,而是基于已经反复验证、更新、综合的结构化知识。而且因为所有的问答结果都存回了wiki,AI可以追溯到某个结论的来源、时间、证据。你问“你确定吗?”它可以直接调出原始论文的截图或者某次讨论的记录。
这种透明度是传统黑盒RAG做不到的。传统RAG给你的答案,你根本不知道它是从哪来的,中间经过了什么处理。而在这里,每条知识都有迹可循,就像开源代码的提交历史一样清晰。最终,这套系统让你在研究、代码分析、资料整理上形成一个持续积累的闭环。你今天花一小时录入的论文,明天、后天、大后天都会被反复使用。你今天花十分钟问的一个问题,它的答案会永远留在知识库里,帮助未来的你或者你的同事。
这不是在跟AI聊天,这是在跟一个永不忘记、越学越聪明的数字研究员合作。
总结
Hermes Agent与LLM-Wiki的组合,本质是把AI从笔记本升级为长期知识系统。通过三层架构、可写回机制和结构化组织,它解决了知识无法沉淀的问题,同时也引入了新的工程挑战,例如数据保护、格式稳定和schema演化。这套系统真正的价值,在于让每一次使用都成为未来能力的一部分。