上下文图的本体论之争,根本方向就错了!
最近两周,AI 圈彻底被“上下文图”(Context Graphs)刷屏了。这股热潮最早由 Foundation Capital 发布的重磅报告《上下文图:AI 的万亿美元机遇》点燃,紧接着阿尼梅什·科拉塔纳在社交平台 X 上发布了一篇关于“坐标系统”的深度技术帖,把讨论从概念拉进了工程实现层面。随后丹尼尔·戴维斯又抛出《上下文图宣言》,将这场新潮与早已沉寂的语义网传统重新连接。
整个行业仿佛一夜之间意识到:AI 代理若想真正理解企业运作,必须拥有一个能承载组织记忆、决策逻辑和工作流演化的上下文图谱。
提出的问题非常关键——如何赋予 AI 代理组织记忆?如何捕获决策痕迹?如何让系统从真实工作流中学习?
这些确实是通往下一代智能系统的核心命题。但就在大家热烈讨论“预设本体 vs 学习本体”时,一个根本性的误解正在蔓延。
过去三年深耕上下文基础设施的实践者指出:这场争论的焦点完全偏移了。实体本体(比如人、公司、事件、产品)在很大程度上早已被现有标准解决,真正的硬骨头是时间有效性、决策轨迹和事实解析。
学习型方法应该用在这些未解难题上,而不是浪费在重复定义“什么是账户”这种基础问题上。所谓“预设 vs 学习”的二分法,本质上是个伪命题。正确的路径是:先采用已有基础,再用学习捕捉真正新颖的组织行为。
被过度简化的“预设 vs 学习”对立
当前讨论几乎完全围绕一个二元框架展开:一边是帕兰蒂尔代表的“预设本体”,另一边是未来派鼓吹的“学习本体”。
支持帕兰蒂尔的一方认为,这家市值超 4000 亿美元的公司正是靠预设本体起家——提前定义好数据模型,把混乱的企业数据强行映射进去,再派大量“前线工程师”到客户现场做高度定制化适配。
这套方法确实有效,尤其对预算充足的大型机构,但代价是成本高昂、实施周期长、难以规模化复制。
而另一方则描绘了一个更诱人的未来:让结构从真实工作中自然涌现,而非由人类提前设计。
AI 智能体在执行任务时留下的行动轨迹(agent trajectories)本身就是训练数据,这些轨迹会自动编译成组织的世界模型。
本体不是被“声明”出来的,而是被“发现”的。
佳雅·古普塔说得更直白:“下一个 500 亿美元公司,将建立在学习型本体之上。最有价值的上下文,是你根本不知道存在、直到代理通过使用才发现的结构。”
阿尼梅什进一步用技术语言包装:他提出五大坐标系统(时间线、事件、语义、归属、结果),它们之间没有共享主键,解决方案是让代理轨迹作为训练信号,学习能编码“跨坐标可连接性”的嵌入向量。
听起来很酷,对吧?但这套叙事忽略了一个残酷事实:过去二十年,本体工程领域早已积累了海量可复用的成果,却被当前讨论集体无视了。
被遗忘的“第三条路”:站在巨人肩膀上创新
争论双方似乎都陷入了一个思维陷阱:要么像帕兰蒂尔那样花数年为客户手搓定制本体,要么寄希望于 AI 代理跑足够多次后自动“发现”结构。
但其实还有一条隐藏路径被完全忽略了——采用已有标准,在需要处扩展,把学习精力聚焦于真正新颖的部分。
现实中的本体工作远非“从零造轮子”或“等 AI 自动发明”。大量本体标准早已在生产环境中运行多年,构成了坚实的基础。
首先是 Schema.org,这是由谷歌、微软、雅虎和 Yandex 在 2011 年联合发起的协作型结构化数据词汇表。它定义了网络世界中最核心的实体类型:Person(人)、Organization(组织)、Place(地点)、Event(事件)、Product(产品)、CreativeWork(创意作品)等数百种。
这绝非纸上谈兵——全球数十亿网页都在用它。你在谷歌搜索看到的富媒体摘要(如活动日期、商品价格、菜谱评分),背后就是 Schema.org 标记在起作用。
一个“人”有姓名、职位、所属组织;一个“组织”有名称、位置、雇员;一个“事件”有开始时间、结束时间、地点、主办方……这些类型清晰、关系明确,正是上下文图所需的实体建模基础。这不是需要你从头构建的定制本体——它已经存在、被维护、且专为这类场景设计。
再看微软的 Common Data Model(通用数据模型,简称 CDM)。很多人不知道,CDM——驱动 Dynamics 365、Power Platform 等微软企业套件的底层 Schema——其实是从 WAND 公司授权而来的。
WAND 已深耕企业分类法和本体数十年,远早于当前 AI 热潮。当微软需要一套企业级实体模型(如 Account、Contact、Lead、Opportunity、Case、Product、Campaign)时,他们没自己造轮子,而是直接买了现成的。
CDM 不是理论模型,而是运行在成千上万家企业的生产系统中。
这说明:企业本体问题早已有人反复打磨,微软的选择恰恰证明——复用比从零开始更高效。
此外还有行业专用标准:
医疗有 FHIR(用于临床数据交换)和 SNOMED(医学术语);
金融有 FIBO(金融商业本体);制造业、物流、能源等各领域都有自己的本体规范。
这些都不是学术玩具,而是真实世界的基础设施。比如 FHIR 定义了如何表示患者、病症、药物、观测数据和临床工作流。当帮生物医药公司构建药物研发知识图谱时,并不会从零定义“化合物”是什么——而是直接采用 FHIR 基元,在必要处扩展,把精力集中在真正新颖的问题上,比如“某个化合物的观测数据如何随临床试验阶段演变”或“如何跨研究连接发现”。
关键点不是某个本体能解决所有问题,而是:“什么是患者?什么是账户?”这类基础问题,过去几十年已被反复定义、验证、优化。地基已经打好,就看你愿不愿意用。
帕兰蒂尔模式的本质是商业选择,而非技术必然
丹尼尔·戴维斯曾一针见血指出:“我不明白为什么大家都觉得帕兰蒂尔有什么本体技术。他们根本没有。他们靠前线工程师花数月甚至数年为客户手搓本体。这不是规模化构建上下文图的方式。”这话值得深挖。
帕兰蒂尔的昂贵,并非因为“预设本体本身难”,而是因为他们拒绝复用已有标准,坚持为每个客户从零定制。
这是一种商业选择,而非技术必然。
你可以直接采用 Schema.org 类型,结合 CDM 模式,再按需添加领域实体——完全不必陷入经年累月的手工建模。
帕兰蒂尔模式的本质,是“披着平台外衣的高端咨询”,其瓶颈不在于本体预设,而在于拒绝站在已有成果之上。如果帕兰蒂尔愿意采用 Schema.org 和 CDM 作为起点,他们的实施周期和成本将大幅降低。问题不在于“预设”本身,而在于“闭门造车”。
学习型本体真正该用在哪儿?组织智能才是战场
并不全盘否定学习型本体的理念,但它被用错了地方。
像 Person、Organization、Account、Contact、Event 这些实体,根本不需要 AI 去“发现”。我们人类早知道它们存在,类型稳定,关系清晰。
让智能体代理跑上百万次才“意识到账户和联系人很重要”,就像让搜索引擎跑一百万次才“发现名词存在”一样荒谬。
这里有个绝佳类比:
CRM(客户关系管理)的定制化,本质上就是本体建模。
当 VC 基金配置 CRM 时,他们会定义 Fund(基金)、Investment(投资)、Portfolio Company(被投公司)、LP(有限合伙人)等对象及其关系;
招聘公司会建模 Candidate(候选人)、Position(职位)、Client(客户)、Placement(入职);
房产中介则追踪 Property(房产)、Listing(挂牌)、Buyer(买家)、Agent(中介)。
这不就是本体设计吗?只是没人叫它这个名字。
如今一批“AI 原生 CRM”初创公司(如 Lightfield、Clarify、Forge AI、Day.ai)正试图跳过这步——不提前配置 Schema,让系统自动推断。
这正是学习型本体在 CRM 领域的落地尝试。
但即便最激进的“自建 CRM”方案,也默认你知道“交易有阶段”、“联系人属于账户”、“活动连接人与机会”。
为什么?因为 Salesforce、HubSpot、Attio 的标准对象高度相似——核心实体在跨行业间具有惊人稳定性。
AI 真正能帮上忙的地方是:发现哪些自定义字段实际被用、哪些关系频繁触发、哪些对象对这个团队真正关键。
这才是组织智能(organizational intelligence)——它建立在稳定基础上,而非取代基础。
具体来说,学习型方法应聚焦于组织特有层:某个账户中,到底哪位联系人对这笔交易真正有决策权?实际决策流程是什么(而非组织架构图上的虚线)?哪些例外会被批准,哪些会被拒绝?真正指导决策的先例是什么?
这些都是“隐性知识”(tacit knowledge),不存在于任何标准本体中,只存在于员工头脑、Slack 聊天记录、审批模式里。
这才是学习型本体的正确战场——不是“发现账户是实体”,而是“发现 Sarah Chen 才是真 boss,尽管 CRM 写的是她上司”。
当前的学习型本体叙事混淆了两个根本不同的问题:
实体建模(存在哪些事物类型?它们如何关联?)和组织智能(这个特定组织如何实际运作?决策受哪些模式支配?)。
前者是基础设施,后者是洞察。
两者需要完全不同的方法论。
冷启动悖论:没有地图,如何行走?
学习型本体还有一个致命漏洞:你无法在智能体代理有效运行前就获得轨迹数据,但代理又需要基础上下文才能有效运行。
正如实践者所言:“你不能等上千次代理 RAG 查询后才‘发现’Sarah Chen 是 Acme Corp 的员工。你必须在代理开始推理前就知道这一点。否则每次轨迹都要重新解决身份识别问题——你得为这种混乱支付高昂的 token 成本、延迟和错误率。”
阿尼梅什用的 node2vec 类比其实恰恰证明了这点:node2vec 是从已有图结构的“行走路径”中学习嵌入,它并不从零发现节点和边。图必须先存在。
AI 代理同理:代理引擎是在预建的“地图”上调用工具。
这张地图就是操作上下文——包含已解析的实体、已建立的关系、时间状态。
先建地图,再让代理高效行走。
那么如何冷启动?学习型本体对此没有清晰答案。
“让代理跑起来,结构自现”这说法,假设你已经有东西可跑。
实际做法是:先采用现有本体打地基,再用学习优化扩展。
用 Schema.org 定义实体类型,用 CDM 模式处理企业对象,用这些标准类型从内容中提取实体,解析身份(邮件中的 Sarah Chen = Slack 中的 @sarah),构建初始图谱。然后才运行代理,从轨迹中学习:哪些关系最常用?哪些模式反复出现?哪些例外成了先例?
这根本不是“预设 vs 学习”的对立,而是“先采用,再学习”——地基先行,智能叠加。
真正未解的难题:时间、决策与事实
如果实体建模已被解决,那上下文图真正的硬核挑战是什么?
答案是:不是名词,而是时间与决策层。
首先是时间有效性(Temporal Validity)。
大多数系统只能告诉你“现在什么为真”,却无法回答“过去某刻什么为真”或“真相如何演变”。“Paula 在微软工作”是个事实,但不完整。她何时入职?现在还在吗?2022 年时情况如何?这就是阿尼梅什所说的“事件时钟”——追踪状态如何随时间变化的基础设施。事实应带 validAt 和 invalidAt 时间戳,系统应能查询“做那个决策时,我们对这个账户的认知是什么?”
现有本体(如 Schema.org、CDM)完全不支持这种时间维度。这是真正需要从零构建的新基础设施。
其次是决策轨迹(Decision Traces)。Foundation Capital 的原始报告点出了关键:连接数据与行动的推理过程,从未被当作数据捕获。比如,续约代理提议 20% 折扣(尽管政策上限是 10%),财务批准了。CRM 只记录“20% 折扣”,但所有让这决策成立的上下文——多系统数据、政策评估、例外路径、审批链——全部消失。
捕获决策轨迹不是本体问题,而是埋点问题。
你必须嵌入决策执行路径,不仅记录“发生了什么”,更要记录“为何被允许发生”。现有本体根本没有“本决策基于 v3.2 版政策,经 VP Sarah Chen 特批,参考了 Q2 Acme 交易先例”这类原语。这是全新领域。
最后是事实解析(Fact Resolution)。从内容中提取的事实只是“断言”,未必是真相。内容可能错误、过时或矛盾。比如,三月邮件说“客户要续约”,九月 Slack 说“客户已流失”。两者都是提取的事实,但不可能同时为真。事实解析要判断:哪个是权威版本?哪个被后续信息覆盖?如何综合时间线上的碎片观测?这需要对时间有效性、信源权威性、证据更新机制做判断。
这不是本体工程,而是维持信念一致性的 AI 难题。
对构建者的启示:别在已解决的问题上浪费子弹
企业端的需求很明确。
Box CEO 亚伦·列维最近说:“21 世纪最关键的竞争优势,是一家公司捕获、管理并围绕正确上下文构建流程的能力。”他说对了。
企业正意识到:AI 代理的好坏,取决于它接收到的上下文质量。但如果你正在构建上下文基础设施,框架选择决定了你的精力分配。
“学习型本体”叙事会引导你聚焦轨迹捕获、嵌入学习、结构涌现——试图让代理从零发现本体。
而正确做法是:聚焦真正未解的难题。
实体建模?直接采用现有标准。别花数月定义“账户”是什么——微软早从 WAND 买了现成方案。
时间有效性?这才是战场。构建带时间戳的事实,支持历史状态查询,把时间作为一等公民。
决策轨迹?这才是机会。嵌入执行路径,把推理过程数据化。
事实解析?这才是硬核 AI。用 LLM 判断权威性、处理矛盾、合成时间线事实。
组织学习?轨迹确实有用——但必须建在地基之上,而非取代地基。
未来的赢家,不会是那些从零学习本体的公司,而是善用已有基础、全力攻克新难题的团队。
Graphlit 的实践:混合存储与时间层构建
在 Graphlit,从 2021 年起就采用上述思路。让人意外的是:本体从来不是瓶颈。早期就采用 Schema.org 类型,再没回头。
真正的难题始终在别处。用 Schema.org 类型(Person、Organization、Place、Event)作为实体基础,以 JSON-LD 序列化。不迷信 RDF 或三元组存储,只关心类型和关系。带 @type 字段的 JSON,既兼容 Schema.org,又无需开发者学习语义网技术栈。
现实迫使构建的是混合存储系统:实体同时存在于向量库、JSON 元数据存储和图数据库中。
这让我们能从五大维度联合查询:
时间维度(这事何时为真?)、地理维度(这事发生在哪里?)、语义维度(什么内容与之相似?)、全文维度(哪些文本提及它?)、图谱维度(它如何关联他人?)。
组织知识天然跨这些维度——一场销售会议有具体时间、城市、关联账户、语义内容(类似其他对话)、人物与产品关系。必须能同时查询所有维度。
Graphlit正构建现有本体缺失的时间层,扩展决策轨迹能力。MCP 服务器嵌入代理的上下文检索路径。当代理通过 Graphlit 执行工作流时,不仅能捕获其访问的内容,还能记录其推理模式。
Graphlit也在构建事实解析引擎——用 LLM 驱动的基础设施,从累积断言中判断当前真相,从碎片观测中合成时间线事实,维持证据积累下的信念一致性。
本体地基不是难点——Schema.org 给了我们。难点是之后的一切:时间、决策、解析、学习。Graphlit正聚焦于此。
语义网终于赢了——只是换了一身衣服
这场讨论其实有一条隐藏主线:语义网社区(RDF、OWL、链接数据)几十年来一直在解决这些问题。
Schema.org 正是从这一传统中诞生的。机器基于结构化、互操作数据进行推理的愿景,并非 2024 年 AI 圈的新发明。
甚至“上下文图”一词也有学术渊源。2024 年 6 月一篇 arXiv 论文正式将 Context Graphs 定义为知识图谱的扩展,加入时间有效性、地理定位和来源溯源——这正是三元组表示所缺失的维度。研究者证明,加入这些上下文层能显著提升知识图谱任务的推理性能。
Foundation Capital 为 AI 企业界普及的概念,其实在学术界早已被形式化。当初阻碍语义网普及的,不是理念,而是语法。RDF、SPARQL、OWL 的学习曲线太陡,多数开发者望而却步。
LLM 改变了这一切。它们能原生读取 JSON-LD,从训练数据中理解 Schema.org 类型,无需定制查询语言或形式推理引擎就能处理结构化数据。
语义网的理念赢了,语法输了——而 JSON-LD 让我们享受红利,免付税。
上下文图讨论,本质是语义网思想借 LLM 之身重生。
三条原则,通往可扩展的上下文图
“预设 vs 学习”的二分法太干净,也太误导。
实体不需要被学习——它们需要被采用。Schema.org、CDM、WAND——工作早已完成。
真正需要构建的,是时间与决策层:随时间变化的事实、作为数据的推理、维持一致性的解析机制。
这才是真正新颖之处,也是机会所在。
总结三条原则:
采用基础,勿重复造轮。
实体建模问题已足够解决。别把创新预算浪费在重新发现轮子上。
构建时间层:带有效期的事实、可查询的历史、时间作为一等维度。
聚焦真正新颖的学习。组织模式、决策动态、特定于本组织的隐性知识。轨迹在此有用——但必须建在地基之上,而非取代地基。上下文图愿景可实现。问题只在于:是站在前人肩膀上,还是浪费数年重新发现已被验证的答案?
附录:AI 原生 CRM 的现实检验
“AI 原生 CRM”浪潮是检验学习型本体理念的绝佳试验场。
这些初创试图通过使用模式推断结构,跳过传统 CRM 配置。但细看之下,它们其实分两类:
第一类是 Schema 演化型。
以 Lightfield(Tome 创始团队新作)为代表,明确宣称从非结构化输入中推断并演化数据结构。他们提到“灵活、回填的 Schema”和“按组织需求对非结构化数据进行结构化”。这最接近字面意义的“学习型本体”。
第二类是 AI 辅助配置型。
大多数属于此类——本质是“经典 CRM 模型 + AI 降低配置摩擦”:
Clarify 宣称“自动配置的 CRM”:你命名字段,AI 自动选类型、写说明、自动填充。
Forge AI 说“描述你的流程,看 CRM 自动构建”。
Day.ai 捕获通讯内容,自动结构化为 CRM 记录。但你仍操作于可识别的对象(账户、联系人、交易、活动)中。
AI 减少摩擦,但未消除底层 Schema。这一区别对本体争论至关重要:即使最激进的“学习”方案,仍依赖稳定的基础对象。学习发生在组织层——哪些字段重要、哪些关系被用——而非实体类型层。
作者背景:本文观点源自 Graphlit 团队的工程实践,该公司自 2021 年起专注于构建支持 AI 代理的上下文基础设施,深度参与上下文图相关技术落地。
极客一语道破
本文独特性极高,直接挑战当前 AI 圈热门叙事,提出基于工程实践的第三条路径,引用大量被忽视的行业标准(Schema.org、CDM、FHIR 等),并清晰区分“基础设施”与“组织智能”两个层次。内容兼具技术深度与战略视野,对构建者有直接指导意义。关键词“上下文图”“本体论”“AI智能体”均为当前高热度搜索词,文章提供了稀缺的批判性视角和实操方案,。