上下文时代:人人拥有同样超级智能,真正拉开差距只剩下这个


当智能不再稀缺,竞争优势从模型本身转移到组织能否高效捕获、管理并喂给AI正确上下文,企业正式进入上下文时代。

作者背景:亚伦·列维(Aaron Levie)是美国云存储巨头Box公司的联合创始人兼CEO。作为硅谷极具前瞻性的科技领袖,他长期聚焦企业级软件、知识管理与AI基础设施演进。

早在2010年代,他就率先提出“内容即平台”理念,推动企业从文件存储走向智能协作。近年来,他深度观察AI代理(AI Agents)在企业工作流中的渗透,多次在公开演讲与社交媒体中强调“上下文工程”(Context Engineering)将成为下一代企业竞争力的核心。

本文是他对AI时代企业战略本质的深刻洞察,融合管理学经典理论与前沿技术趋势,被业界视为“AI组织转型宣言”。

上下文时代的真正起点

如果你把这篇文章只当成一篇关于 AI 的趋势判断,那你很可能低估了它的杀伤力。

阿伦 莱维真正要讲的,不是模型会不会更聪明,而是当所有人都拥有同样聪明的大脑之后,企业之间到底还能靠什么拉开差距。

管理学大师彼得 德鲁克在上世纪九十年代提出,知识已经成为最关键的经济资源,甚至可能是唯一的竞争优势。当年这句话听起来还像是对信息时代的总结,但放在今天的 AI 语境里,反而像一条提前三十年写好的预言。因为在大模型面前,知识本身已经开始贬值。

所谓上下文(Context),不是泛泛而谈的“行业知识”或“市场趋势”,而是你这家公司独有的、沉淀多年的、无法被轻易复制的组织内核。
比如:你对某个细分客户群体的深度理解;
你内部流传却从未文档化的决策逻辑;
你产品路线图背后的独特假设;
你与核心客户长达五年的沟通记录;
你历年失败项目的复盘教训;
甚至是某位资深员工脑子里“直觉式”的判断依据。

这些碎片化的、非结构化的、常常被埋没在邮件、会议、聊天记录里的“组织暗知识”,才是AI时代真正的金矿。

想象一下:你给一个AI律师发指令:“审核这份并购协议。”
如果没有上下文,它只能基于通用法律条款给出标准化建议。
但如果你能同步提供:过去三年你公司类似交易的条款偏好、法务总监对特定风险的容忍阈值、目标公司所在地区的监管潜规则、甚至CEO上周在闭门会上说的“这次一定要卡住对方的付款节奏”——那么这个AI律师输出的就不再是模板回答,而是真正贴合你公司战略意图的战术方案。

上下文,就是让通用智能变成专属智能的魔法催化剂。

通用智能的悖论
今天的大模型正在快速演化成各种专业智能体,可以写代码、审合同、做财务分析、搞科研设计,甚至模拟医疗决策。从能力维度看,它们已经无限接近“全行业通用专家”。

但问题恰恰出在“通用”这两个字上。

一个模型,前一秒可以给福特汽车审法律合同,下一秒就能为高盛写交易系统代码。它对任何公司一视同仁,对任何组织一无所知。这意味着一个残酷的现实:在纯智能层面,你和你的竞争对手,用的是同一个律师、同一个工程师、同一个战略顾问。

当智能完全同质化,差异化就不可能来自模型本身。再强的推理能力,如果不知道你的组织结构、客户背景、历史决策逻辑、业务边界和隐性规则,依然只能停留在“聪明但不落地”的阶段。

于是问题被彻底翻转了。在一个人人都能调用超级智能的世界里,公司究竟凭什么赢。答案开始指向一个过去被严重低估的东西:上下文。
不是抽象的背景信息,而是关于你这家公司独有的全部细节集合。包括你真正该做什么产品,客户为什么选择你,你内部如何做决策,哪些失败经验从不写进文档,哪些客户反馈只存在于老员工脑子里,这些年慢慢积累的组织直觉与路径依赖。

这些东西,才是 AI 智能体真正放大生产力的燃料。模型负责推理,上下文决定方向。

没有上下文,所有智能都只能输出平均值答案。


上下文工程:一场被严重低估的技术革命
过去一年,“上下文工程”(Context Engineering)突然在硅谷爆火,不是没有原因的。它本质上是一场数据架构与工作流设计的深度重构。试想:你要让一个AI代理瞬间理解你整个公司——包括所有系统权限、客户数据边界、项目优先级、内部术语、合规红线……但留给你的“说明书”可能只有一份文档的长度。如何在有限提示(prompt)空间里塞进最关键的信息?如何确保它不会误读模糊指令?如何让它在跨系统操作时自动调取正确的数据源?这些问题,远比训练一个更大参数的模型更难。

更棘手的是,企业里大量关键上下文根本不存在于任何数字化系统中。

风险投资公司Foundation Capital的贾娅·古普塔(Jaya Gupta)和阿舒·加格(Ashu Garg)在一篇重磅文章中尖锐指出:许多影响AI代理决策的“决策痕迹”——比如某次临时会议的口头结论、某个高管的即兴批示、某个客户私下透露的偏好——根本没被任何软件记录。这意味着,即使你拥有最先进的AI平台,如果拿不到这些“幽灵数据”,你的AI依然会做出脱离实际的判断。

上下文工程的第一步,其实是把企业从“模糊经验驱动”转向“可追溯事实驱动”。

其实企业早就被上下文困住
有趣的是,这个问题并不是 AI 时代才出现的。企业本质上一直就是上下文的集合体。流程、制度、专利、客户关系、决策习惯、文化偏好,全都是上下文。区别在于,过去这些上下文很难被系统性调用。

惠普前 CEO 卢 普拉特那句著名的话,如果惠普真正知道惠普知道什么,生产力可以提升三倍,说的正是这种隐性知识无法被组织吸收的问题。

这句话道尽了大企业的知识管理之痛:
文档散落在SharePoint、Confluence、邮件、本地硬盘;
专家经验随员工离职而流失;
跨部门信息壁垒如铜墙铁壁。

AI智能体的出现,第一次让“激活组织记忆”成为可能。

数据的梅特卡夫定律正在生效
Atlassian联合创始人麦克·坎农-布鲁克斯(Mike Cannon-Brookes)甚至提出“数据的梅特卡夫定律”:企业数据的价值不是线性增长,而是随连接密度呈指数级爆发。
数据也有自己的网络效应。数据越多,彼此连接越紧密,系统整体的价值不是线性增长,而是指数级放大。这在 AI 时代变得异常真实。
孤立的数据几乎没有价值,但一旦被上下文图谱连接起来,就能支撑复杂决策。
当你把客户反馈、产品日志、销售记录、客服对话全部打通,并用AI实时关联分析,产生的洞察力将远超任何单点数据。


比如一家房地产公司,如果能把区域租金波动、租户续约率、物业维修响应速度、周边新楼盘动态全部整合成动态上下文,它的AI智能体就能在客户咨询时自动推荐最优房源组合,甚至预测未来三个月的租金谈判空间。而另一家只用通用市场报告的公司,只能给出泛泛而谈的建议。差距就在这里拉开。

AI 智能体第一次让这件事变得现实。不是因为模型更聪明,而是因为它们终于可以低成本地消费、组合和调用这些碎片化的上下文。

真正困难的是上下文获取

但问题从来不在愿景,而在落地。上下文并不是天然存在于某个系统里。很多关键决策痕迹,根本没有被任何软件记录过。Foundation Capital 的贾雅 古普塔和阿舒 加格在讨论上下文图谱时就指出,企业最重要的决策逻辑,往往存在于会议、聊天、临时妥协和非正式判断中。这些信息,恰恰是智能体最需要、却最难获取的部分。

要让 AI 真正工作,它需要客户数据、内部文档、对话历史、项目时间线、研究资料、市场素材、财务记录、代码仓库、人力资源信息,并且这些信息要在权限、时效和任务相关性上被精准控制。

系统整合是一场十年工程

设计能承载这些上下文的系统,绝不是简单加一个搜索框。它涉及系统级互通、权限治理、合规审计、执行边界控制。哪些数据能被哪个智能体看到,哪些操作只能建议不能执行,哪些行为必须人工确认。这些问题本质上是组织治理问题,只是现在被技术放大了。

未来十年,企业软件会发生一次深层重构。一部分上下文会继续留在现有的系统记录中,另一部分则必须依靠全新的工具来承载,尤其是那些过去从未被结构化的信息。

人必须适应 AI 的工作方式

最反直觉的一点在于,AI 并不会完全适应人类。恰恰相反,人类将被迫适应 AI 的工作逻辑。因为智能体的能力太强,同时也有明确边界,组织必须调整流程,才能让上下文持续、稳定、可用。

这意味着个人贡献者的角色正在发生质变。未来的员工,不再只是执行任务的人,而是智能体的管理者。他们负责给出目标、补充上下文、检查结果、处理升级路径、协调多个智能体之间的协作。这和过去管理一个团队没有本质区别,只是对象从人变成了智能体。

上下文决定谁能活下来

趋势已经非常清晰。进入上下文时代后,企业的核心能力不再是“会不会用 AI”,而是“能不能持续积累和调动高质量上下文”。能做到这一点的公司,生产力会被不断放大,服务能力会越来越强。做不到的公司,即使模型再先进,也只能输出平庸结果,最终被市场边缘化。

这正是彼得 德鲁克当年那句话在 AI 时代的真正含义。知识仍然是竞争优势,但前提是,它必须被正确地组织、连接,并转化为上下文,才能被智能真正利用。欢迎来到上下文时代。