这个开源Memoriki将 Karpathy卡帕西LLM Wiki 与Milla Jovovich的MemPalace MCP 合并后,Claude Code 现在能够记住所有会话的内容。
如果你用 Claude Code 处理过任何严肃的事情,你肯定知道其中的痛苦。每次新会话都意味着一张白纸。你的 CLAUDE.md 文件虽然有所帮助,但它是静态的。你做出的决定、探索过的想法、发现的联系,这些真实的上下文信息全都消失了。
有人开发了一个可以解决这个问题的系统。它叫做 Memoriki——一个结合了两个开源项目的模板:
第一层:LLM Wiki(Karpathy 的模式)
你将原始资料(文章、文字记录、笔记等等)放入文件夹。Claude Code 会读取这些资料并构建维基页面——包括实体、概念、来源和综合分析。所有内容都带有 [[wiki-links]]、YAML 前置元数据和索引。你可以把它想象成 Obsidian,只不过 LLM 会负责所有的编写工作。
关键在于:知识库只需编译一次并保持最新状态,无需像 RAG 那样每次查询都重新推导。
第二层:MemPalace MCP
精彩的部分来了。MemPalace补充道:
- 语义搜索——通过含义而非关键词查找内容。包含 856 个带有词嵌入的文本块。
- 知识图谱——通过类型化的关系和时间戳连接各个实体。查询“我使用哪些工具?”即可获得即时的结构化答案。
- 智能体日志——人工智能会记录每次会话中发生的事情。下次会话时,它会读取这些记录。
它们如何协同工作:
测试同一个问题用三种不同的方式提出:
- Grep(仅限维基):找到了包含匹配词的文件。不得不手动打开 5-6 个文件才能拼凑出答案。
- MemPalace 搜索(无 wiki):找到了语义相似的块,但返回了没有结构的原始片段。
- KG 查询(两者皆可):一次通话,即可获得包含关系和日期等结构化信息的即时答案。
安装只需2分钟:
git clone https://github.com/AyanbekDos/memoriki.git |
摘要
Memoriki用LLM Wiki加MemPalace把AI变成长记性员工,知识不丢还能自己长大,干活像开挂。
SEO标题
AI记忆系统革命:从会话失忆到知识复利的结构化进化路径解析
冲击力标题
AI终于不再失忆了,人类第一次拥有可积累的外挂大脑
SEO Slug
期刊级别
计算机科学与人工智能应用研究级
作者背景
AI系统架构与认知工程研究者
核心结论:把“记忆”从一次性对话变成持续积累的生产力引擎
这套系统的本质非常简单但杀伤力极强:把大模型从“每次都失忆的临时工”,改造成“有记忆、有关系网、有成长轨迹的长期合作者”。传统用法里,每一次新会话都像清空大脑,之前所有决策、推理路径、踩坑经验全部归零,这直接导致效率指数级下降。
想象一下,你花三个小时教一个实习生搞定一个复杂报表,结果第二天他来上班,问你“报表是什么”。就是这种感觉,气得你想摔键盘。传统AI对话就是这种实习生,每次都得从头教,之前喂的所有经验、踩的所有坑、试过的所有骚操作,全被它忘得一干二净。
Memoriki做的事情不是提升模型智商,而是补上“记忆结构”这一块长期缺失的基础设施。通过LLM Wiki负责结构化知识,通过MemPalace负责语义检索和关系网络,两者叠加形成“可累积认知系统”,最终让知识不再重复生成,而是持续编译和复用。这个系统好比给AI装了个外挂硬盘,而且这个硬盘还会自己整理文件、建索引、画关系图,越用越顺手。
问题本质:大模型不是笨,而是每次都在失忆
用Claude Code做严肃任务时,一个致命问题反复出现:每次启动新session,就像刚认识一个完全陌生的人。即使有CLAUDE.md这种规则文件,也只是死的模板,无法承载真实决策过程、上下文变化和推理轨迹。这就好比给失忆症患者贴了个便条,上面写着“你叫张三,你是个程序员”,但他完全不记得昨天写过什么代码、为什么那样写、遇到了什么bug。
更麻烦的是,真正有价值的信息,从来不是“答案本身”,而是“你是怎么一步步走到这个答案的”。这些过程信息,包括试错路径、被否决的方案、临时灵感、上下文连接,在普通使用中全部丢失,相当于每次都在重复走迷宫。举个例子,你让AI写一段代码,它给了你五个方案,你选了第三个。但下次再问类似问题,AI又把这五个方案全部重新生成一遍,完全不知道你上次选的是第三个,更不知道为什么选第三个。
这就解释了一个现象:很多人觉得LLM“时好时坏”,其实不是模型不稳定,而是上下文断裂导致的认知不连续。没有记忆,就没有复利,所有聪明都会被重置。你昨天跟AI讨论了一整天的项目架构,今天想接着聊,结果它一脸懵地跟你说“什么项目?我们聊过吗?”那种感觉,就像你辛辛苦苦存了一年的钱,结果银行每天早上把你的账户余额清零。这谁受得了?
LLM Wiki机制:把零散信息编译成结构化知识库
LLM Wiki这一层干的事情可以用一句话概括:把“原始材料”变成“可导航知识系统”。用户只需要把文章、笔记、访谈等内容丢进raw文件夹,模型自动生成结构化wiki,包括实体、概念、来源和综合分析。这个过程的牛逼之处在于,你不需要自己动手整理,AI帮你把一堆乱七八糟的原材料,自动变成一本有目录、有章节、有索引的工具书。
这个过程的关键突破点在于“知识编译”。传统RAG模式每次查询都要重新检索和拼接上下文,而LLM Wiki选择一次性整理并持续更新,避免重复计算。这种方式更像写书,而不是每次现场拼PPT。你想想,你是愿意每次做汇报都从零开始找资料拼PPT,还是愿意手里有一本已经写好的书,直接翻到相关章节?后者省的时间不是一点点。
结构设计也很有意思:entities存人和公司,concepts存思想模型,sources存来源总结,synthesis做跨文档分析。再配合[[wiki-links]]这种双向链接,直接把知识变成网络结构,而不是孤立文档。这个结构一旦形成,就具备自增长能力。你今天加一篇新文章,AI会自动把它跟已有的概念、实体、来源关联起来,该更新的更新,该补充的补充,整个知识库就像活的一样,自己会生长。
MemPalace机制:给知识加上“搜索能力”和“时间维度”
如果说LLM Wiki解决“知识怎么组织”,那MemPalace解决的是“知识怎么被找回”。它不是简单关键词搜索,而是语义搜索,直接基于embedding理解“意思”,而不是匹配“字面”。这意味着你不需要记住原文说了什么词,只需要记住大概的意思,系统就能帮你找到。比如你忘了“那个讲注意力机制的文章”具体标题是什么,你只需要搜“就是那个让模型关注重点的方法”,它就能找到。
语义搜索的价值在复杂问题中会被无限放大。用户问问题时,不需要记住原始笔记写了什么关键词,只要表达意思,系统就能找到相关内容。这一步直接把“记忆检索成本”从人工降到机器级别。以前你要翻十个文档、搜二十个关键词才能拼出一个答案,现在你只需要问一句人话,系统把相关内容直接怼到你面前。
更狠的是Knowledge Graph这一层。它不仅存信息,还存关系,而且是带时间戳的关系。用户问“我在用什么工具”,系统不是给一堆片段,而是返回结构化答案:工具名称、使用时间、上下文关系全部串起来。这已经不是搜索,而是“查询认知结构”。你问“我上个月为什么选了那个方案”,系统能告诉你:上个月你试了A、B、C三个方案,A跑不通,B太慢,C刚好,最后选了C,而且这个决策是在跟客户沟通之后做的。这哪里是AI,这简直是你失散多年的双胞胎兄弟,比你更了解你自己。
Agent Diary机制:让AI开始“记住自己干过什么”
Agent Diary是一个被严重低估的设计。它让AI在每次session结束时,自动写一份“工作日志”。下一次启动时,先读日志,再开始工作,这相当于给模型补上“连续记忆”。这个日志不是随便写两句废话,而是详细记录:这次会话干了什么、做了哪些决策、遇到了什么问题、当前进度到哪里、下一步打算做什么。就像程序员每天下班前写的日报,但AI写日报不用催,写得还特别详细。
这一步的意义非常直接:模型开始拥有“历史感”。它不再只是回答问题,而是知道之前做过什么决策、为什么这么做、现在处于哪个阶段。连续性一旦建立,很多复杂任务才真正可控。比如你让AI帮你重构一个项目,第一天它分析了代码结构,第二天你继续问,它能接着第一天的工作往下走,而不是问你“什么项目?什么重构?”。
没有这个机制,AI永远停留在“即时问答工具”。有了这个机制,AI才开始接近“长期项目合作者”。差别就像短期兼职和长期员工,完全不是一个层级。兼职员工你每次都要重新交代背景、重新说明需求、重新解释之前踩过的坑;长期员工知道项目历史、知道团队习惯、知道哪些方案已经被毙掉了。Memoriki就是把AI从兼职临时工,变成了跟你干了三年的老伙计。
三种查询方式对比:从拼碎片到直接拿答案
测试结果很直观地揭示了系统差异。使用grep时,只能找到关键词匹配文件,还需要手动打开多个文件拼接答案。这种方式本质还是“人肉检索”,效率极低。你搜“记忆系统”,grep给你列出所有包含“记忆”或“系统”的文件,然后你要一个一个打开看,自己判断哪些有用、哪些没用,最后自己拼出一个答案。这跟翻纸质书有什么区别?
只用MemPalace语义搜索时,可以找到相关内容,但返回的是碎片,没有结构。用户仍然需要自己整理逻辑,这一步的认知负担依然存在,只是比grep轻一点。你搜“记忆系统怎么工作”,它会返回几个相关的段落,但段落之间没有组织,你需要自己排序、自己归纳、自己总结。这就像有人帮你把相关的几页书找出来了,但书还是得你自己读、自己理解。
当Knowledge Graph和Wiki结合使用时,体验直接跃迁。一个查询返回结构化答案,带关系、带时间、带上下文。这个时候用户不再是“查资料”,而是“调用知识系统”。效率提升不是线性,而是质变。你问“记忆系统怎么工作”,它直接给你一个完整答案:包括定义、核心机制、组件关系、使用流程、注意事项,而且每部分都标注了来源和时间。这就像你请了个私人助理,你问一句,它给你一份完整的报告。这种体验一旦尝过,就再也回不去手动翻文件的日子了。
架构设计:简单文件结构背后的认知工程
memoriki/ |
整个项目结构看起来非常朴素,但每一层都在解决一个核心问题:
raw目录存原始输入,wiki目录存结构化知识,mempalace.yaml定义记忆系统规则,CLAUDE.md约束模型行为。
这种设计有一个关键特点:职责分离。
LLM负责生成和整理,MemPalace负责存储和检索,两者各司其职,没有混在一起。这种分层设计保证了系统可以持续扩展,而不会变成一坨不可维护的混乱状态。你可以在不影响检索的情况下改进知识生成,也可以在不影响生成的情况下优化检索算法,两边各自升级,互不干扰。
更重要的是,这个结构天然支持“长期积累”。每一次新增内容都会进入系统,而不是覆盖旧内容。知识库随着时间增长,价值呈指数级上升,这才是真正的“第二大脑”。你今天加一篇文章,明天加一段笔记,后天加一次会议记录,这些东西不是堆在那里吃灰,而是被自动整理、自动关联、自动索引,变成可以随时调用的结构化知识。三个月之后,这个知识库的价值比你刚建的时候翻了几十倍。
输入层与来源层:raw与sources形成“信息进入系统的双阶段过滤”
raw目录负责接收所有未经处理的信息,这一步强调“无门槛输入”。这是卡帕西在卡帕西提出用LLM构建个人知识库wiki的全流程拆解强调
sources目录则是raw的“结构化映射”。每一个原始文件都会被整理成一页总结,这一步相当于把“原材料”加工成“半成品”。如果没有这一层,后续分析会直接面对混乱文本,效率会迅速下降。
这两层组合起来形成一个稳定的输入机制:raw保证数量,sources保证质量。一个负责规模,一个负责可读性,两者缺一不可。
概念与实体分离:concepts与entities构建认知最小单元
entities目录专门存“具体对象”,比如人、公司、产品,这些是可以被唯一识别的节点。它们像地图上的城市,有明确边界和属性。
concepts目录存“抽象模型”,比如方法论、模式、思想框架。这些不是具体东西,但决定了如何理解世界。它们更像规则,而不是对象。
把这两者分开,是整个系统最关键的设计之一。如果混在一起,知识网络会变成一团糊。分开之后,就可以清晰表达“谁做了什么事,用了什么方法”,关系会变得非常干净。
关系与综合:synthesis让知识从堆积变成推理能力
synthesis目录承担的是“跨文档思考”。它不对应某一个输入,而是把多个sources、concepts、entities连接起来,形成新的结论。
这一层的存在,直接决定系统有没有“思考能力”。如果只有前面的结构,系统只是一个整理工具;有了synthesis,系统开始具备推理能力,因为它可以在不同信息之间建立联系。
长期来看,这一层会越来越值钱。因为单条信息价值有限,但信息之间的关系会不断复利增长。关系越多,洞察越深。
规则与配置:CLAUDE.md与mempalace.yaml决定系统上限
CLAUDE.md本质是“行为协议”,它规定LLM在处理信息时必须遵守的规则,包括格式、结构、命名方式等。这一步保证所有输出一致,不会随着时间推移变形。
mempalace.yaml则是“记忆引擎配置”,它控制语义搜索、知识图谱、embedding等底层机制。可以理解为大脑的“神经连接方式”,决定信息如何被检索和关联。
这两个文件一个管“思考方式”,一个管“记忆方式”。如果缺任何一个,系统都会退化。只有两者同时存在,AI才既有结构,又有记忆。
日志与索引:index.md与log.md构成“可追溯认知历史”
index.md负责导航,它让整个wiki变成一个可浏览系统,而不是一堆文件。用户可以快速定位信息,而不需要靠记忆路径。
log.md记录所有操作,而且是只追加。这一点非常重要,因为它保证历史不会被覆盖。所有知识演化过程都被记录下来,可以随时回看。
这两者组合的意义在于:系统不仅知道“现在有什么”,还知道“这些东西是怎么来的”。这让知识具备时间维度,而不是静态快照。
参考源头:idea-file.md锁定系统设计的原始意图
idea-file.md很多人会忽略,但它的作用是防止系统“跑偏”。随着不断扩展,使用者很容易偏离最初设计,而这个文件记录了原始理念,可以随时校准方向。
它相当于系统的“设计宪法”。当出现冲突或不确定时,可以回到这里判断什么是核心原则,什么是可以调整的细节。
长期来看,这种设计能避免系统变成杂乱拼接的工具集合,而是保持一致的认知哲学。
操作流程:从两分钟搭建到长期复利
git clone https://github.com/AyanbekDos/memoriki.git
pip install mempalace && mempalace init .
claude mcp add mempalace -- python -m mempalace.mcp_server
整个初始化过程极其简单,这也是它能推广的关键原因。复杂系统如果搭建成本太高,基本注定失败,而这个方案在可用性上做了很好的平衡。你不需要懂什么复杂架构,不需要配置什么数据库,不需要部署什么服务,就这三行命令,两分钟搞定。门槛低到这个程度,才有人愿意试。
# > Read raw/some-article.md and ingest it into the wiki
核心操作也只有三个:导入、查询、检查。导入负责积累知识,查询负责调用知识,检查负责修复问题。这种极简流程背后,是复杂系统被很好地封装起来,用户只需要关注结果。你不需要关心知识是怎么被编译的、索引是怎么建的、关系是怎么推理的,你只需要知道:把东西丢进去,需要的时候问一下,它给你答案。就这么简单。
长期使用的复利效应极其恐怖。你第一天用,可能觉得“也没什么特别的”。你第一个月用,开始发现有些问题不用重复问了。你第一年用,发现你的知识库已经大到你自己都记不清里面有什么,但系统比你还清楚。你问任何问题,它都能在几秒内给出基于几百篇文章、几千条笔记、上百次决策的答案。这种能力,单靠人脑根本做不到。
本质升级:从工具使用到认知系统构建
这套方案真正的价值不在技术,而在思维方式的转变。传统用法是“用AI解决问题”,而这里变成“用AI构建认知系统”。一个是短期效率,一个是长期复利。前者是今天搞定一个任务就完了,后者是今天做的事情让明天更高效、后天更高效、一年后还更高效。差别就像打工和创业,一个是卖时间,一个是建资产。
一旦开始用这种方式工作,很多行为会自然改变。用户会更重视记录、更重视结构、更重视长期积累,因为这些东西都会被系统放大,而不是白费力气。你今天记的一条笔记,可能三个月后被用来回答一个重要问题;你今天做的一个决策,可能半年后被用来支撑另一个关键判断。这种“延迟回报”的激励机制,会让你越来越愿意花时间把东西记好、整理好。
简单说,这不是让AI更聪明,而是让人的思考被“外部化”和“系统化”。一旦这个过程跑起来,个人能力的上限会被明显抬高。你不再只是靠脑子记东西、靠脑子做推理,而是有了一个外部系统帮你记、帮你整理、帮你关联、帮你检索。你的脑子只需要做最高级的创造和决策,剩下的脏活累活,全部交给系统。这才是真正的“人机协作”,不是人伺候AI,而是AI伺候人,而且越伺候越顺手。
总结一句话:
Memoriki用LLM Wiki加MemPalace把AI变成长记性员工,知识不丢还能自己长大,干活像开挂。