企业AI的下一波爆发点不在模型,而在上下文图谱。只有先构建操作上下文(身份、关系、时态、跨系统合成),才能捕获有价值的决策痕迹,形成可复用的先例网络。
企业AI的下一个万亿级机会:不是模型,而是上下文图谱
你有没有想过,为什么今天的企业AI代理明明有了最强大的大模型,却依然像个“没长脑子的实习生”?你让它处理客户续约,它却在政策红线边缘反复试探;你让它分析销售漏斗,它却把不同系统的数据当成平行宇宙;你让它写个周报,它连你上周到底开了哪几个会都搞混了。问题到底出在哪?
最近,Founders Fund旗下知名风投Foundation Capital发表了一篇极具洞察力的文章《上下文图谱:AI的万亿美元机遇》,彻底点破了当前企业AI发展的致命盲区——我们一直在给AI喂数据,却从未教它“理解组织”。
这篇文章由Jaya Gupta和Ashu Garg联合撰写,直指核心:下一轮万亿美元平台的诞生,不是靠把AI塞进现有的CRM、ERP或HR系统,而是要捕捉企业从未系统化存储过的东西——决策痕迹(decision traces)。
什么是决策痕迹?简单说,就是“为什么这个决定能被允许发生”的完整证据链。
比如,一个AI代理打破10%的折扣上限,给出了20%的优惠,它背后动用了哪些依据?是不是因为客户有重大故障记录?是不是VP特批?是不是参考了去年某个相似案例?这些逻辑原本只存在于人的脑海或碎片化的聊天记录里,而CRM里只留下冷冰冰的一行:“折扣:20%”。一切让这个决策“可理解、可复用、可审计”的上下文,全被丢进了数字黑洞。
但我要补充的是:没有“操作上下文”(Operational Context)作为地基,决策痕迹根本无从谈起。
AI代理连“Sarah Chen是谁”“Acme账户归谁管”“上个月合同条款是什么”都搞不清楚,怎么可能记录下有意义的决策逻辑?这就像让一个刚入职的实习生直接写董事会纪要,却不给他公司通讯录、组织架构图或历史档案。
今天的企业AI之所以频频翻车,不是因为模型不够聪明,而是因为我们没给它构建一个“能理解组织现实”的基础环境。
操作上下文:AI代理真正需要的“操作系统”
让我们先拆解什么叫“操作上下文”。这不是什么玄学概念,而是AI代理在企业环境中正常运作所必需的四大基本能力。
第一是身份解析(Identity Resolution)。同一个“张伟”,在邮件里叫Zhang Wei,在Slack里被喊“老张”,在会议记录里是“张工”,在CRM里又是“Zhang, Wei (Customer Success)”。对人类来说,这些标签指向同一个人毫无障碍;但对AI来说,这四个“张伟”就是四个独立实体。没有统一的身份解析,AI根本无法追踪一个人在组织中的完整行为轨迹,更别说理解他参与的决策了。
第二是所有权与关系建模。谁负责Acme这个大客户?支付系统的Bug归哪个工程师管?支持团队升级的工单怎么和产品路线图挂钩?这些关系在企业里真实存在,但它们散落在CRM、Jira、Confluence、甚至是微信群里,从未被建模成可查询的结构化数据。AI代理面对的是一个“关系黑箱”,只能靠猜。
第三是时态状态理解(Temporal State)。组织不是静态的。客户ARR(年度经常性收入)每月在变,合同条款每季度更新,团队架构也可能随时调整。AI代理必须能回答:“在2024年11月那次续约决策发生时,客户的合同条款是什么?ARR是多少?”而不是只能告诉你“现在是什么”。没有时间维度的上下文,等于没有上下文。
第四是跨系统信息合成(Cross-system Synthesis)。现实中,一个决策往往依赖多个系统的碎片信息:支持主管看CRM确认客户等级,查Zendesk发现有三个未解决工单,翻Slack看到销售预警客户可能流失,最后决定破例升级处理。这一整套信息整合发生在人的大脑里。但没有任何系统记录下“这次合成是怎么发生的”。AI代理如果只访问单个系统,就会像盲人摸象,永远拼不出全貌。
这四大能力合起来,就是“操作上下文”——它让AI代理像人类员工一样,理解组织中“谁、拥有什么、何时、如何关联”的基本事实。没有这一层,所谓的“智能代理”不过是高级版关键词搜索器。
决策上下文:从“做了什么”到“为什么能这么做”
一旦操作上下文就位,我们才能构建更高阶的“决策上下文”——也就是Foundation Capital文章里强调的“决策痕迹”。
决策上下文包含三个关键要素:输入日志(什么信息被采集了?)、规则评估(哪一版政策被引用?有没有例外?)、审批链路(谁批准了?依据哪个先例?)。当AI代理做出一个突破常规的决定时,系统不仅要记录结果,更要记录整个推理链。比如:“本次20%折扣基于v3.2版折扣政策第5条,因客户在过去90天内遭遇三次P1级故障(来源:PagerDuty),且2023年Q4曾有类似先例(ID: DEC-8892),经销售VP李明特批(审批链接)”。
这些决策痕迹积累起来,就形成了所谓的“上下文图谱”(Context Graph)——一个跨越实体与时间的活体知识网络,让“先例”变得可搜索、可复用。下次再有类似客户,AI代理可以直接问:“历史上我们怎么处理这种高价值但高投诉率的客户?”系统返回的不是模糊的文档片段,而是结构化的决策案例,包含完整上下文与结果反馈。
但请注意:决策上下文必须建在操作上下文之上。如果AI连“李明是谁”“DEC-8892案例涉及哪些客户”都搞不清,那所谓的“先例查询”就是空中楼阁。这也是为什么今天绝大多数企业AI项目止步于POC(概念验证)——它们试图直接跳到决策层,却忽略了地基根本不存在。
为什么RAG和AI记忆根本解不了这个局?
面对上下文缺失的问题,市场目前主要靠两种方案:RAG(检索增强生成)和“AI记忆”平台。但它们都有结构性缺陷。
RAG的本质是“高级关键词搜索”。你问“Sarah对API集成说了什么?”,它会从一堆嵌入向量里找出语义相近的文本块。但它完全不懂“Sarah”是一个有完整交互历史的人,也不理解“API集成”是一个连接多个团队的项目,更无法追踪这个话题如何从Slack蔓延到邮件再进入会议纪要。RAG存储的是“相似性”,不是“意义”。它把组织知识当成文本文档处理,而不是一个动态演化的实体关系网。
而市面上的AI记忆产品呢?它们大多只记录你和AI的聊天历史。比如“用户讨论了Acme定价”。但这和“理解Acme作为一个客户实体,拥有哪些关键人、历史合同、支持工单、决策记录”完全是两回事。AI记忆捕捉的是对话,不是组织现实。
问题的根源在于:组织知识本质上是一个图(Graph),不是一堆文档。人连着客户,客户连着项目,项目连着决策,决策连着结果——所有这些节点和边都在随时间演化。没有图结构,AI就是上下文盲人。它能“找到相关文字”,但无法“理解组织逻辑”。
操作上下文层到底长什么样?
那么,一个真正的操作上下文基础设施应该具备哪些核心能力?
首先是身份解析的实体建模。人、公司、地点、事件都必须被建模为标准实体,最好遵循Schema.org这类开放标准。这样,“Sarah Chen”就不再是分散在各处的文本碎片,而是一个统一实体,连接她参与的所有对话、文档和决策。
其次是多模态数据摄入。系统必须能接入Slack、邮件、会议录音、CRM、代码库、项目管理工具等30多种数据源,并且保留原始结构(比如邮件的发件人/收件人、Slack的频道/线程结构),而不是粗暴地把一切压成纯文本再嵌入。
结构即语义,丢掉结构等于丢掉上下文。
第三是时态建模能力。不仅要记录当前状态,还要记录每个实体和关系如何随时间演变。AI代理需要能回溯到任意时间点,重建当时的组织快照。
第四是关系映射。系统必须自动识别并存储实体间的关联:某人属于某团队,某文档关联某项目,某决策涉及哪些利益相关方。这些关系不是元数据,而是核心数据。
第五是代理互操作性。上下文层必须通过标准协议(如新兴的Model Context Protocol, MCP)向任何AI代理开放,不能绑定在单一厂商生态里。
最后是企业级部署选项。对于有合规要求的组织,整个上下文层必须能部署在私有云或本地,满足数据主权需求。
Graphlit在做什么:构建AI代理的“组织操作系统”
自2021年起,我们团队就在打造一个名为Graphlit的平台,目标就是提供AI代理所需的“操作上下文层”。我们不是在建另一个文档库,而是在构建一个类似现代媒体或传感器数据系统的基础设施——保留结构、来源和时间戳,而不是把一切压成文本块。
今天,Graphlit已经能实现身份解析、实体抽取、关系映射、时态建模,并支持30多个企业数据源的多模态摄入。接入Graphlit的AI代理,能真正理解“谁拥有什么”“事情如何关联”“什么发生了变化”——这是任何有意义决策记录的前提。
下一步,我们将深化三大方向:
一是以CRM作为实体主干。我们发现,像Attio这样的新型CRM提供的账户、联系人、商机等对象,是组织多模态内容的最佳结构化锚点。一旦这些核心实体确立,Slack消息、邮件、文档都能干净地挂载到图谱上。
二是构建代理记忆与决策日志。当AI代理通过Graphlit执行工作流时,我们将不仅记录它访问了什么内容,更记录它“如何合成信息”“基于什么逻辑做出决定”。
三是工作流埋点(Workflow Instrumentation)。正如Foundation Capital所说,捕获决策痕迹必须“在执行路径中”。我们的MCP服务器已经处于代理的上下文检索路径上,下一步就是扩展到决策输出端——记录批准、例外、先例引用等高阶语义。
决策痕迹需要行业标准,不能各自为政
这里要提一个关键点:决策痕迹不能是每个平台自说自话。今天的LLM可观测性领域(如LangSmith、AgentOps)已经围绕“执行痕迹”建立了标准:输入、输出、延迟、工具调用等。但这只是技术层日志,不是业务层语义。
真正的决策痕迹应该是:“本决策依据v3.2版政策第5条,因P1故障触发VP例外,参考先例DEC-8892,由李明批准”。这种业务语义需要行业级标准,就像OpenTelemetry之于可观测性,Schema.org之于实体标记。否则,每个平台用自己的私有格式记录决策,跨系统查询先例就永远不可能。
Graphlit的架构选择让我们处于有利位置——我们已采用Schema.org和JSON-LD对人、组织、事件建模。扩展到决策痕迹(政策版本、例外类型、审批人、先例引用)是自然演进。更重要的是,我们押注开放标准,而非私有Schema,这让我们能兼容未来行业共识。
为什么现在是构建上下文基础设施的最佳时机?
三大趋势同时汇聚:
第一,ChatGPT引爆了企业对“专属AI”的需求。每个组织都想要一个真正理解自己业务的AI,而不是通用大模型。这个需求真实且持久。
第二,MCP(Model Context Protocol)正在标准化代理互操作性。这意味着上下文层只需构建一次,就能服务Cursor、Claude、自定义代理等所有未来AI。
第三,各家公司正在大规模实验AI代理,却普遍遭遇上下文缺失的墙。它们发现,仅靠治理或提示工程无法解决根本问题——AI需要操作上下文才能正确推理,需要决策上下文才能从先例中学习。
有人必须来建这个上下文基础设施。这就是我们专注的方向。
作者背景
Jaya Gupta是Foundation Capital的合伙人,专注于AI与企业软件投资,曾主导多个人工智能基础设施项目的早期投资。Ashu Garg是该基金的创始合伙人,拥有超过20年企业软件经验,是Workday等多家知名SaaS公司的早期董事会成员。两人长期关注AI如何重塑企业工作流,其观点在硅谷具有广泛影响力。