Claude Cognitive为Claude Code添加工作记忆:节省70% token开销!


Claude Cognitive为Claude Code添加工作记忆,通过上下文路由器和池协调器,实现64-95% token节省,解决大代码库中的重复、幻觉和失忆问题。  


你的AI编程助手终于能“记住事”了!Claude Cognitive让百万行代码不再头疼  

辛辛苦苦让Claude Code帮你调试了一个复杂的模块,结果第二天新开一个会话,它一脸无辜地问你:“这个项目结构是啥?”、“这个函数在哪定义的?”、“你是不是有个叫utils.py的文件?”……更离谱的是,它还会凭空“发明”出根本不存在的import语句,或者把上周你已经修复的bug当成新问题重新分析一遍。

如果你的代码库已经突破50万行、甚至100万行,这种“失忆式”开发体验简直让人抓狂——每次启动都是冷启动,每次对话都要重新“喂”一遍整个代码库,不仅浪费时间,还烧钱(token消耗爆炸式增长)。  

但今天,我要告诉你一个好消息:有人真的受够了!他亲手给Claude Code装上了“工作记忆”——没错,就像人类大脑的短期记忆一样,能记住你最近在搞什么、哪些文件最重要、哪些任务已经搞定。

这个项目叫Claude Cognitive,是GitHub上一个完全开源、MIT协议、即插即用的增强套件。点击标题!
它不是魔法,而是用两个精巧的系统,硬生生把一个“健忘症AI”变成你的“长期编程搭档”。  

作者是谁?为什么他能解决这个问题?  

作者Garret Sutherland,来自MirrorEthic LLC。这不是一个随便写脚本玩玩的业余开发者,而是一个每天和百万行Python代码打交道的实战派。他的团队维护着一个超过100万行代码的生产级系统,包含3200多个Python模块,部署在四节点分布式架构上(包括Orin、Legion、ASUS、树莓派5等硬件)。他们日常同时开着8个以上的Claude Code实例,在不同终端、不同任务之间切换。  

正是在这种高压、高复杂度的工程环境中,他被Claude Code的“无状态”特性折磨到极限。每次新会话都像面对一个完全陌生的同事,你得从头解释架构、重复之前的结论、纠正它幻想出来的接口。于是,他决定不再忍受,而是动手打造一套“认知增强系统”——Claude Cognitive。这个项目不是理论玩具,而是已经在他们自己的百万行代码上跑了数月、验证有效的生产工具。  

核心技术一:上下文路由器——让AI学会“注意力分配”  

Claude Cognitive的第一个核心,叫“上下文路由器”(Context Router)。它的灵感来自人类认知科学中的“注意力机制”——我们不会同时记住所有信息,而是把注意力集中在当前任务相关的部分,其他信息暂时放到后台。  

这个路由器会给项目中的每一个文档(比如systems/orin.md、modules/auth.py、integrations/api-gateway.md)打一个“热度分”(attention score),范围从0到1。根据分数,文件被分为三档:  

- HOT(高热,>0.8):当前你正在聚焦的文件。比如你说“帮我优化Orin上的PPE部署”,那么systems/orin.md就会立刻被激活到1.0分,并且其完整内容会被注入到Claude的上下文中。  
- WARM(温热,0.25~0.8):和当前任务相关但不是核心的文件。比如Orin相关的整合文档或依赖模块,它们只会把前25行(通常是注释、函数签名、类定义)注入,节省大量token。  
- COLD(冷,<0.25):完全不相关的文件,直接从上下文中剔除,不占任何token预算。  

更妙的是,这个热度不是静态的。它会随着时间“衰减”——如果你连续三轮对话都没再提“Orin”,它的分数就会从1.0 → 0.85 → 0.72 → 0.61,最终可能掉到WARM甚至COLD。但只要你在新消息里再次提到“Orin”,它立刻满血复活到1.0。  

而且,系统还支持“共激活”(co-activation):当你提到“Orin”,不仅systems/orin.md变热,和它关联的integrations/pipe-to-orin.md和modules/t3-telos.md也会自动获得+0.35的加分,进入WARM状态。这种关联不是靠死板的配置,而是通过你在项目文档中定义的关键词触发。  

结果是什么?token消耗直线下跌。

官方数据显示:
冷启动时从12万字符降到2.5万(省79%),
有上下文时从8万降到2.4万(省70%),
专注工作时从6万降到1.5万(省75%)。

平均节省64%到95%的token,这意味着你花同样的钱,能干5倍的活。  

核心技术二:池协调器——多实例之间的“工作记忆共享”  

但光有单个实例的记忆还不够。现实中,你很可能同时开着多个终端:一个在改认证模块,一个在调部署脚本,一个在写测试用例。以前,这8个Claude实例互不相干,A实例刚修好一个bug,B实例完全不知道,还在重复排查。  

Claude Cognitive的第二个核心——“池协调器”(Pool Coordinator)——解决了这个问题。它就像一个团队的共享任务板,所有实例都能往里写状态、也能从中读进度。  

它有两种模式:  

自动模式:系统会自动扫描你的对话,一旦检测到类似“成功部署PPE到Orin”这样的完成语句,就会自动解析出:  
- action: completed  
- topic: PPE部署到Orin  
- affects: orin_sensory_cortex/  

然后把这条记录写入共享池。当下次B实例启动时,它会看到:“[A] completed: PPE部署到Orin”,于是就知道不用再干重复活了。  

手动模式:对于关键任务,你可以用特殊的代码块显式声明状态。比如:  

pool
INSTANCE: A
ACTION: completed
TOPIC: 修复了认证bug
SUMMARY: 解决了token刷新的竞态条件,加了互斥锁。
AFFECTS: auth.py, session_handler.py
BLOCKS: 会话管理重构可以继续了
 

这个设计太聪明了——它不要求你改变工作流,只是在Claude的自然对话中“偷听”关键信息,或者让你用极简语法手动标注。结果是:团队里4个人同时用Claude,再也不用问“这个你搞定了吗?”、“我是不是重复做了?”  

实战效果:第一天就见效,百万行代码如丝般顺滑  

这套系统不是纸上谈兵。作者团队已经在100万行代码、3200+模块的生产环境中验证了数月。效果立竿见影:  

- 新实例第一次对话就高效:不用再花3条消息解释“我们有个叫t3-telos的核心模块”。  
- 零幻觉导入:因为系统只注入真实存在的文件,Claude再也不会“发明”出不存在的依赖。  
- 跨天会话连贯:你周五下班前暂停的任务,周一早上打开新会话,Claude还记得上周的进展。  
- 8个实例零重复:所有实例共享一个“任务池”,自动避开已完成的工作。  

更酷的是,v1.1版本还增加了“注意力历史追踪”功能。你可以用命令行查看过去几天的注意力变化:  

bash
# 查看最近20轮对话的注意力状态
python3 ~/.claude/scripts/history.py

# 查看过去7天的统计
python3 ~/.claude/scripts/history.py --stats --since 7d

 

输出会告诉你:哪几天最忙、哪些文件最常被关注、哪些模块被忽略了。这甚至能帮你复盘开发节奏——比如“上周我们花太多时间在pipeline.md上,但convergent.md完全被冷落了”。  

如何快速上手?15分钟部署指南  

别被技术细节吓到,部署其实超简单。官方提供了清晰的步骤:  

首先,把项目克隆到你的家目录:  

bash
cd ~
git clone https://github.com/GMaN1911/claude-cognitive.git .claude-cognitive
cp -r .claude-cognitive/scripts ~/.claude/scripts/
cat .claude-cognitive/hooks-config.json >> ~/.claude/settings.json
 

然后,在你的项目根目录初始化配置:  

bash
cd /path/to/your/project
mkdir -p .claude/{systems,modules,integrations,pool}
cp ~/.claude-cognitive/templates/* .claude/
 

接着,编辑两个关键文件:  
- .claude/CLAUDE.md:填写你的项目基本信息  
- .claude/systems/*.md:描述你的架构模块(比如Orin节点、API网关等)  

最后,给每个终端会话设置一个唯一ID(避免冲突):  

bash
# 永久设置(加到~/.bashrc)
export CLAUDE_INSTANCE=A

# 或临时设置
export CLAUDE_INSTANCE=B

 

启动Claude,第一句话就能看到效果:  


ATTENTION STATE [Turn 1] HOT:2 WARM:5 COLD:12
 

如果想查团队最近干了啥:  

bash
python3 ~/.claude/scripts/pool-query.py --since 1h
 

官方还提供了MirrorBot示例(一个5万行的真实项目),开箱就有50-70%的token节省。如果你花10分钟自定义关键词(编辑~/.claude/scripts/context-router-v2.py),节省率能冲到80-95%。  

未来路线图:从“记忆”到“预测”  

目前v1.1已经支持注意力历史和CLI查询,接下来的v1.2要加更炫的功能:  

- 注意力流图可视化:用图谱展示文件之间的激活关系  
- 冲突检测:如果两个实例同时把同一个文件设为HOT,系统会报警  
- 语义相关性:从关键词匹配升级到向量嵌入,更智能地关联文件  
- Nemotron压缩:用更精简的方式总结池中的任务状态  

而v2.0的野心更大:  
- 操作确认:当Claude要执行高危操作(比如删除文件),需要你二次确认  
- Oracle预测:根据你的工作模式,提前预加载可能需要的文件  
- ES-AC学习:记住你个人的上下文偏好,越用越懂你  

总结  

Claude Cognitive不是又一个AI玩具,而是一个被真实工程痛点逼出来的解决方案。它用“注意力机制+共享状态池”两大支柱,硬生生给无状态的Claude Code注入了工作记忆,让百万行代码的开发体验从“痛苦”变成“丝滑”。

节省70% token开销!干五倍的活!