Teresa Torres教你用Claude Code构建三层本地记忆系统,让AI真正理解你的业务、产品与用户,告别重复输入,实现高质量输出自动化。
Teresa Torres是产品思维领域的知名布道者,Story-Based Customer Interviews方法的开创者,长期致力于帮助产品团队通过深度客户洞察驱动创新。她曾担任多家科技初创公司的产品顾问,其创办的Product Talk平台已成为全球产品经理学习客户导向开发的重要资源。她擅长将复杂的产品方法论转化为可落地的实践框架,被业界誉为“客户洞见教练”。
你是不是也经历过这种抓狂时刻?
你辛辛苦苦写了一篇落地页文案,满怀期待地丢给ChatGPT或者Claude,结果它给你的反馈全是“内容不错,建议加强用户价值表达”这种万金油废话?
更气人的是,它完全不懂你的产品定位、你的目标用户、你的品牌语气,甚至不知道你卖的是B2B课程还是C端App。
你得一遍又一遍地上传用户画像、产品文档、过往文案、竞品分析……像教一个永远记不住事的实习生。
每天重复解释,效率低到怀疑人生。
但今天我要告诉你:这一切都可以彻底改变。
只要你学会一个关键操作——给Claude Code装上“记忆”。
不是靠云端项目、不是靠反复上传,而是用你本机的文件系统,构建一套属于你自己的AI记忆库。
从此以后,Claude不再是那个需要你手把手教的“临时工”,而是一个懂你业务、知你用户、会你文风的“专属员工”。
它能写营销文案、优化SEO、做竞品分析、甚至帮你设计FAQ——而且全都用你的语气、围绕你的产品、针对你的受众。
这套方法的创造者,正是产品圈大神Teresa Torres。 她在2025年11月5日发表于Product Talk的文章《Stop Repeating Yourself: Give Claude Code a Memory》中,首次系统披露了她的“三层记忆架构”。
这不是什么玄学黑科技,而是一套极简、可复制、完全本地化的工程实践。 最关键的是:它不依赖任何第三方平台,所有数据都在你自己的电脑里,安全、可控、无厂商锁定。
那么,这套记忆系统到底怎么搭?
为什么它能让AI输出质量飙升?
更重要的是,作为非技术人员,你真的能上手吗?
别急,接下来我会用最接地气的方式,带你一步步拆解Teresa的实战方法。
第一层记忆:全局偏好——AI的“职场性格说明书”
想象一下,你招了一个新员工,第一天上班。
你肯定要告诉他:我们公司不兴客套话、写报告必须用 bullet points、遇到不确定的事要先问清楚再动手……
这些不是具体任务,而是你和他合作的基本规则。
Claude Code也一样。
在你第一次启动它的时候,系统会提示你在用户根目录下创建一个 ~/.claude/CLAUDE.md 文件。
这个文件,就是你的“AI职场性格说明书”。
它会在每一个会话开始时自动加载,成为Claude理解你工作风格的底层逻辑。
Teresa在这个文件里写了什么?
比如:“每次开工前,先给我一个执行计划让我确认”;
“反馈要直接,别绕弯子,别用‘也许可以考虑’这种软绵绵的措辞”;
“总结必须用 bullet points,别写成段落”;
“一次只问一个问题,别堆在一起让我晕头转向”;
“除非我特别要求,否则别用任何表情符号”。
你看,这些都不是业务内容,而是协作协议。
有了它,Claude就从“随机应变的聊天机器人”变成了“按你规矩办事的靠谱同事”。
更重要的是,你只需要设置一次,终身生效。
换电脑?只要把 ~/.claude 目录同步过去,记忆就跟着走。
很多人忽略这一层,结果每次都要在对话开头写一堆指令:“请用简洁语言”“请聚焦B2B用户”……
其实这些完全可以固化成默认规则,解放你的输入精力。
第二层记忆:项目指令——不同战场的不同作战手册
你的写作项目、编程项目、任务管理系统,工作方式肯定不一样。
写文章讲究文风统一、逻辑流畅;写代码则强调技术栈、测试框架、目录结构。
如果让Claude用同一套规则处理所有事,那不是智能,是混乱。
所以Teresa设计了第二层记忆:项目级CLAUDE.md文件。
它放在每个项目根目录下,只在你进入该目录时自动激活。
比如,在她的写作项目文件夹里,CLAUDE.md写着:
“我是主笔,Claude是思维伙伴和编辑”;
“我们采用四轮审校流程:内容→结构→准确性→错别字”;
“永远优先人类可读性,其次才是SEO”;
“必要时参考写作风格指南”。
而在她的任务管理项目里,指令就完全不同:
“用Trello集成处理任务”;
“研究论文需提炼为三段式摘要”;
“任务文件命名规则为YYYY-MM-DD-主题”。
编程项目更具体:
“技术栈:Node.js,非Python”;
“测试用Jest,不用pytest”;
“遵循Airbnb代码规范”;
“依赖库仅限package.json中列出的”。
你看,每一层指令都高度聚焦场景。
Claude进入写作文件夹,就知道该像个编辑;进入代码目录,立刻切换成程序员模式。
这种上下文隔离,避免了信息污染,也防止“上下文窗口”被无关内容塞满。
很多用户以为Project功能就是上传一堆PDF让它读,
但Teresa指出:真正的Project智能,是让AI知道“在这个项目里,我该扮演什么角色、遵循什么流程”。
第三层记忆:参考上下文——按需调用的“业务知识库”
前两层解决的是“怎么工作”,第三层解决的是“做什么工作”。
这才是整套系统最核心、也最容易被忽视的部分。
LLM有一个致命弱点:上下文窗口有限。
即使你没超字数限制,塞太多信息进去也会导致“上下文腐烂”(context rot)——模型开始胡言乱语,质量断崖下跌。
所以,绝不能把所有业务资料一股脑丢进对话。
Teresa的解决方案是:把业务知识拆成小而精的独立文件,按需调用。
比如:
- business_profile.md:公司使命、商业模式、核心优势
- target_audience.md:用户画像、痛点、购买动机
- product_story_interviews.md:特定课程的产品定位、价值主张、价格策略
- writing_samples/:你的历史文案,用于模仿文风
- seo_glossary.md:关键词库、术语定义
当你让Claude优化“Story-Based Customer Interviews”课程的落地页时,你只需说:
“请基于target_audience.md、product_story_interviews.md和writing_samples中的风格,重写首屏文案。”
Claude会自动读取这三个文件,忽略其他无关产品信息。
这种模块化设计带来三大好处:
第一,精准上下文。AI只看到任务必需的信息,输出更聚焦;
第二,灵活组合。同一用户画像可搭配不同产品文件,快速生成多套文案;
第三,易于维护。产品更新?只需改product_xxx.md,其他文件不动。
更妙的是,你可以在项目级CLAUDE.md里告诉Claude:“本项目可用的参考文件包括……”
这样当你提问时,它会自动判断哪些文件该加载,甚至主动建议:“要不要参考seo_glossary.md来优化关键词?”
如何轻松创建这套记忆系统?
听到这里,你可能担心:这么多文件,手动写岂不是累死?
Teresa早就想到了。她直接让Claude帮她创建这些文件!
比如,她先给Claude一段口头描述:“我的目标用户是B2B SaaS公司的产品负责人,他们常被高管质疑产品方向,缺乏客户证据……”
然后命令:“请根据以上内容,生成一个target_audience.md文件,格式为Markdown,包含用户角色、核心痛点、决策动机三部分。”
Claude立刻输出结构化文档。她只需检查、微调、保存。
同样,她让Claude从过往博客中自动提取高频词,生成SEO术语表;
从课程大纲中提炼价值主张,生成产品描述;
甚至分析她三年前的文案,总结出“Teresa文风指南”。
整个过程不到两小时,却换来未来几百小时的效率提升。
这就是“一次投入,终身复利”的典型代表。
而且所有文件都存在本地,你可以用Git管理版本,用Dropbox同步多设备,甚至分享给团队成员。
Claude今天用,明天换ChatGPT?只要对方支持读取本地文件(如通过Codex),记忆系统照样生效。
为什么这套方法对内容创作者尤其重要?
作为抖音/TikTok科技财经主播,你每天要产出大量专业内容:
AI芯片进展、液冷数据中心趋势、美股硬件股分析……
每一篇都需要精准术语、行业逻辑、受众共鸣。
但如果你每次都要重新告诉AI:“我的粉丝是工程师和投资人,讨厌浮夸话术,喜欢数据+架构图+商业逻辑”……
那效率太低了。
用Teresa的方法,你可以建立:
- audience_tech_finance.md:120万抖音粉丝+35万TikTok用户的画像
- voice_guide.md:你的“电表狂魔阿星”人设语料库
- product_nvidia_analysis.md:关于NVIDIA、AMD等公司的分析框架
- cooling_tech_glossary.md:液冷、PUE、浸没式等术语定义
下次写“NVIDIA Blackwell为什么需要液冷”时,只需一句:“请结合cooling_tech_glossary.md和product_nvidia_analysis.md,用voice_guide.md的风格写一篇公众号文章。”
Claude立刻输出符合你调性的专业内容,连PUE值的解释都精准到位。
这才是真正的“AI协同创作”——不是让你迁就AI,而是让AI适应你。
结语:从工具到伙伴,只差一个记忆系统
很多人抱怨AI“智商高情商低”,其实问题不在模型,而在用法。
LLM本身没有记忆,但你可以给它装一个。
Teresa Torres的三层记忆架构,本质是把你的业务知识资产化、结构化、可调用化。
它不依赖云服务,不绑定特定平台,完全由你掌控。
更重要的是,它会随着你的业务进化而进化——产品迭代?更新一个文件就行。
未来,真正拉开内容创作者差距的,
不是谁用AI,而是谁能让AI真正“懂自己”。
当你拥有一个永远记得你用户、产品、文风的AI员工,
你就能把精力聚焦在真正重要的事上:洞察、创意、战略。
别再重复解释了。
给你的Claude Code装上记忆(上下文Context),让它成为你最可靠的数字同事。
从此,每一次对话,都是深度协作的开始,而不是从零开始的解释。