核心观点:这篇长文来自格琳公司(Glean)创始人兼首席执行官阿尔温德·贾因(Arvind Jain),这老哥在谷歌干了十多年 Distinguished Engineer(可以理解为超级高级工程师),后来创办了数据安全公司鲁布里克(Rubrik)并成功上市,2019年又创办了格琳。
文章核心就讲一件事:企业级人工智能代理(AI Agent)的架构正在从单打独斗的实验品进化成完整的工业级技术栈。
这技术栈分成五层:
最底层是上下文层(Context Layer),解决数据连接、权限管理、知识图谱这些脏活累活;
往上是模型层(Model Layer),强调多模型混合使用,哪家强就用哪家;
再往上是编排层(Orchestration Layer),负责协调各种代理完成任务;
然后是安全层(Security Layer),必须统一不能碎片化;
最上面是接口界面层(Interface Layer),从聊天框扩展到各种业务系统里。
整篇文章就强调一个理念:开放架构比封闭垄断强,水平化平台比分点解决方案强,上下文工程(Context Engineering)比单纯调模型重要得多。
阿尔温德·贾因这老哥到底是谁
要聊这篇文章,先得认识一下作者阿尔温德·贾因这号人物。
这哥们的人生轨迹简直就是硅谷印度裔工程师的标准爽文剧本:
从印度理工学院德里分校(IIT Delhi)本科毕业,跑到华盛顿大学读了个计算机硕士,然后一头扎进微软开启职业生涯。
在微软混了一段时间后,他加入了谷歌,一干就是十多年,从普通工程师干到了 Distinguished Engineer(这个职称在谷歌比副总裁还稀罕,全公司也没几个)。
在谷歌期间,他主导了搜索、地图、油管这几个核心产品的技术架构,可以说是亲手参与了现代互联网信息检索体系的搭建。
2014年他离开谷歌,联合创办了鲁布里克(Rubrik),做数据备份和安全,这家公司2024年成功上市,估值56亿美元。
2019年,他再次创业,创办了格琳(Glean),一开始想做企业搜索,后来赶上生成式人工智能的大潮,转型成了企业级人工智能代理平台。
这哥们现在是硅谷人工智能圈子里的重量级人物,红杉资本、花旗创投都投了格琳,公司估值已经超过46亿美元。
他写这篇文章不是纸上谈兵,是带着格琳服务几百家大企业客户的实战经验来的,每一个观点背后都有真实的血泪教训。
2025年人工智能代理终于不再只是玩具
时间倒回2025年初,那时候人工智能代理这个概念刚刚真正火起来。
之前大家玩聊天机器人(Chatbot)玩了一年多,发现这玩意儿就是个高级搜索引擎,问一句答一句,干不了啥正经事。
但现在模型开始具备推理能力(Reasoning)、迭代能力(Iteration)和行动能力(Action),也就是说,你给它一个目标,它能自己琢磨怎么拆解任务、调用工具、一步步执行,最后把活儿干完。
这标志着人工智能从"会说话"进化到了"会干活"。
开源技术生态像雨后春笋一样冒出来:代理开发工具包(Agent SDK)、模型上下文协议(MCP)、代理间通信协议(A2A)、技能库(Skills Libraries)、沙箱环境(Sandboxes),还有各种为了开放标准和互操作性设计的构建模块。
这种开放性极其重要,因为它让人工智能代理能接更多的活儿:你可以把代理接入各种工具,把它从单一的聊天窗口里解放出来,塞进集成开发环境(IDE)、内部应用系统、企业资源规划系统(ERP)里,让它真正成为生产力工具。
这就像给代理装上了手脚,不再只是动嘴皮子的聊天机器人,而是能动手脚干实事的数字员工。
模型专业化分工已经成为定局
驱动这些代理的底层模型在2025年取得了惊人的进步。它们能写代码、修代码,能推理多步骤的复杂问题,能生成高质量的图像,还能处理长时间运行的任务。
有意思的是,这些能力提升在标准基准测试(Benchmark)里往往体现不出来,因为基准测试考的是知识问答,而实际工作能力考的是综合运用。
这就导致了一个明显的趋势:模型专业化!
Claude在编程和工具使用上最强;
GPT在通用推理上领先;
Nano Banana专攻图像生成。
每隔几个月就有一个新的"哇塞"模型冒出来,打开新的能力边界。
这明确了一件事:未来一定是不同任务用不同模型的多模型时代。没有一家模型提供商能通吃所有场景,就像没有一种工具能既当锤子又当螺丝刀还当电钻一样。
企业需要的是一个模型无关(Model-Agnostic)的架构,能灵活切换和组合各种模型,而不是被某一家模型厂商绑死。
上下文工程成了2025年的关键技术瓶颈
过去一年,各家企业都在拼命测试这些代理的极限,看它们到底能承担多少工作量,以及需要多少"上下文工程"(Context Engineering)才能让它们稳定运行。到处都在问同一个问题:到底要怎么做,才能让代理在企业环境里可靠地干活?格琳在这方面有第一手经验,从客服工单自动处理、销售账户预测,到工程调试,各种场景都趟过一遍。
上下文工程这个概念是安德烈·卡帕西(Andrej Karpathy,人工智能领域的大神级人物,前特斯拉人工智能总监,OpenAI创始成员)在2025年提出的。
他的原话是:在每一个工业级大语言模型应用里,上下文工程都是一门精细的艺术和科学,目标是把上下文窗口填充上恰到好处的信息,用于下一步操作。之所以说是科学,是因为要做好这件事,需要任务描述和解释、少样本示例、检索增强生成(RAG)、相关的(可能是多模态的)数据、工具、状态和历史记录、信息压缩……给太少或者格式不对,大语言模型就没有最佳表现所需的上下文;给太多或者太不相关,成本会飙升,性能反而会下降。做好这件事极其非 trivial(非平凡,意思是很难)。
这段话道破了企业级人工智能的核心难点:不是模型不够聪明,是你喂给它的信息不对。就像让一个顶级大厨做饭,你给他一堆乱七八糟的食材和错误的菜谱,他也做不出好菜。
上下文工程标志着人工智能应用的一个转折点:模型终于开始为工具使用(Tool Use)而训练,模型上下文协议(MCP)作为一个标准,把工具带进了各种人工智能应用。
但上下文工程也暴露了一个真问题:把各种工具连接起来很难,而且每做一个新代理都要重新连一遍,这成了巨大的工程负担。
企业级人工智能代理技术栈的五层架构
要卸下工程师肩上的这个重担,你必须提升技术栈的层级。光给团队现成的数据接口和动作接口是不够的,指望它们在企业环境里自动稳定运行是做梦。你需要在底层建立一个完整的基础设施:
数据连接器(Data Connectors),能检索完整的、带权限控制的信息;索引(Indexes),能提供快速准确的搜索;知识图谱(Knowledge Graphs),能映射实体关系,支持多跳推理(Multi-Hop Reasoning,就是A连B、B连C、C连D这种链式推理);上下文图谱(Context Graphs),能理解工作流程和决策路径。
没有这个基础,你的数据就发挥不出价值,决策就会基于错误信息,最后你会得到2025年另一个流行词描述的东西:"工作垃圾"(Work Slop,指人工智能生成的低质量、错误百出的工作成果)。
不过一个令人兴奋的趋势:上下文理解已经从单纯理解你的数据,进化到了理解你的企业运作方式和工作流程。
在过去的数据时代,我们只关注记录决策结果(也就是那些记录系统,System of Record),从来不关心这些决策是怎么做出来的。
但现在,有了智能体代理,理解这些流程本身就有了价值,这叫"代理自动化"(Agentic Automation)。
这让代理能承担更多工作,因为它们可以通过学习实际工作流程来做出更好的决策。
为什么上下文必须集中管理
把所有上下文放在一个地方还有另一个重要原因:每一个有意义的人工智能用例都横跨多个系统。当每个垂直产品都自建连接器时,你会得到 N 份脆弱的集成、不一致的语义、更长的安全审查周期,以及不断增长的维护负担。这就像每个部门都自己拉网线、自己发电,看似自主,实际上是混乱和低效的。
更重要的是,上下文是人工智能代理技术栈里一个关键的潜在锁定领域。如果你花几年时间训练一个人工智能系统真正理解你的企业,积累了多年与所有员工和业务流程互动的记忆,那么当你想换一个新的人工智能模型或新厂商时怎么办?所有这些上下文和学习成果会丢失吗?你必须从头再来吗?
有了正确的代理架构,你可以把所有上下文从模型层分离出来。这确保了你保留自己的知识产权,宝贵的数据不会被锁定在单一模型或单一厂商那里。这就是"开放策略":每一层都开放,不绑定任何单一玩家或技术。
模型层:多模型混合是未来的唯一出路
现代推理模型让人工智能代理走到了今天这一步。生成式预训练变换器第五版(GPT-5)推动了长程推理(Long-Horizon Reasoning)的进步,Claude在代码和工具使用上依然最强,Gemini Flash展示了极快速、低延迟推理的可能性。今天的模型在工作范围上确实令人惊叹。
但尽管大家都在谈论模型商品化(Commoditization),很明显我们正在走向一个多模型、多提供商的未来。
在格琳,我们已经针对不同的工作选择不同的模型:图像生成用一个,代码生成用一个,深度研究用一个,轻量级路由用一个,不管提供商是谁。不同任务需要不同模型,这一点不会改变。保持模型无关性确保你总能获得最新的能力。
还有一个更根本的原因说明为什么模型提供商不会拥有上下文层:经济账算不过来。训练成本每一代增长两到三倍,每个前沿模型现在仅训练计算就要花费数亿美元。只有少数几个组织能在这个规模上运营,这意味着前沿模型会变成共享基础设施,而不是每个企业都自己建的东西。这个分界线很重要:模型提供商会专注于模型开发,因为构建和维护上下文层是完全不同的、同样巨大的投资。
编排层:人工智能代理的指挥中枢
最近关于编排(Orchestration)的讨论很多,这是有道理的。编排是最接近实际应用的东西:它使用企业数据,应用正确的技能,协调业务系统的自动化,并从重复执行中学习,可靠地完成任务。因此,我们会看到针对细分和部门用例的出色编排器涌现,就像我们已经看到的:用于工程的游标(Cursor),用于产品视频的特鲁皮尔(Trupeer),用于搜索引擎优化内容的艾罗普斯(AirOps)。
但也有对水平化编排的真实需求,因为那些成百上千个为你的企业定制的代理横跨多个系统、团队和数据源。这就是水平化技术栈提供超额价值的地方。
格琳的重点是改变整个部门的运作方式:客服、销售、工程等等。要做好这件事,你必须理解这些职能实际如何运作:它们的流程、交接点、数据流、决策节点。理解了这些,你才能协调正确的数据和动作来自动化真实的工作流。
如果放大看,你会注意到技术栈中必须紧密耦合的两个部分是数据层和编排层。没有企业上下文(连接器、索引、信号、流程模型、关系),编排器无法做出好的决策或可靠地自动化工作。反过来说,每次代理运行都会产生新的轨迹和反馈,改进上下文层。每次执行都教会系统什么有效、什么无效、如何优化下一次运行。
这个反馈循环——上下文指导编排,编排强化上下文——正是可靠、长期运行自动化成为可能的原因。这就像人类学习:理论指导实践,实践反馈修正理论,螺旋上升。
安全层:绝对不能碎片化的红线
安全是企业绝对不能容忍碎片化的一个领域。如果每个点解决方案都需要自己的安全模型,你最终会重复造轮子、扩大攻击面、不一致地执行策略。每一波人工智能创新——从检索增强生成(RAG)到代理再到代码生成——都引入了新的安全需求,要求公司开发新的安全手册。
每一波人工智能浪潮都需要建立在相同的安全基础上:隔离数据和模型以防止泄露,强制执行强大的网络和加密标准,通过单点登录(SSO)确保企业级身份认证。你真正想要的是内置的安全,而不是每次新创新都要自己想办法保护。当你搜索企业数据时,敏感内容不应该意外暴露。当你给代理分配任务时,它不应该执行未授权的操作。当你生成代码时,它不应该泄露到你的私有环境之外。这些保护应该是默认的,而不是选配。
你可以自己承担这个负担,也可以与水平化提供商合作,它们在数据、应用和代理工作流上应用统一的安全模型。这种对一致、集中化安全的需求认识,正是推动代理架构整合的主要力量之一。在安全这件事上,省钱和省事就是埋雷,一旦出事,省下的那点钱连罚款的零头都不够。
界面接口层:从聊天框到无处不在
2025年大部分时间我们都锚定在聊天界面上。虽然聊天不会消失,但它不会是员工与代理互动的唯一方式。
格琳从使用模式中已经看到这一点:当代理直接嵌入人们每天使用的业务应用中时,采用率最高。随着组织引入更多代理,它们需要这些代理出现在工作发生的任何地方。
这就是为什么我相信2026年将带来一波新的代理界面浪潮。
在技术栈的水平层之上,我们会看到垂直的、领域特定的代理和用户界面:客服副驾驶(Support Copilots)用于客户关怀,销售助手,工程生产力工具,首席信息官(CIO)仪表盘,人力资源和财务副驾驶,以及嵌入在软件即服务(SaaS)应用内的代理。
这些体验不应该重新发明上下文和安全,它们应该建立在已有的层之上,同时叠加领域特定的工具和工作流,让它们真正有用。有了正确的代理架构,你可以一次性构建和训练你的企业上下文技术栈,并在整个企业中永久连接它。
想象一下,以后你打开企业微信、钉钉、飞书、Salesforce、Jira,每个里面都有懂你们公司业务的智能助手,而且它们共享同一套记忆和安全策略,这才是未来。
开放架构对抗封闭垄断
虽然企业正在向人工智能平台集中,但它们明智的做法是不要走向单一垄断:找一个试图包办一切的提供商,结果每件事都做得不深,把艰难的集成工作推回给你这个客户。你最后得自己连线工具、调和数据模型、 bolt on( bolt on 是" bolt on governance" 的 bolt on,意思是后期硬加上去)治理机制、缝合那些本应是头等公民的工作流。
开放架构思维完全不同。它承认没有单一垄断体能跟上人工智能创新的速度。相反,一个技术栈由差异化的层组成:模型、上下文与编排、界面,每一层都可以独立进化,同时仍然协同工作。技术栈让厂商选择在哪里专业化、在哪里合作、在哪里保持开放以集成和新标准。
这种方法对企业来说有价值得多。它给你灵活性而不牺牲质量,让你在新能力出现的那一刻就能采用,防止你被困在跟不上的封闭生态系统里。一个设计良好的代理技术栈天生就是面向未来的、集中化的,因为每个水平层都可以在自己的时间线上改进,而不需要你重建周围的世界。这就像搭积木,每块积木可以升级换代,但整个城堡不会塌。
格琳的实战验证与独特价值
格琳在这个领域不是纸上谈兵。他们服务了数百家大型企业,从客服工单自动处理到销售预测,从工程调试到人力资源问答,各种场景都跑通了。他们的平台已经支持创建成百上千个代理,横跨各个部门。这种水平化、开放的技术栈策略在实际应用中得到了验证。
格琳的独特之处在于,它把谷歌级别的搜索技术(阿尔温德·贾因在谷歌干了十多年搜索)与企业级安全、权限管理、数据连接器结合在一起,形成了一个完整的上下文层。这不是简单的向量数据库加一个大语言模型接口,而是一个深度理解企业运作方式的知识基础设施。
而且格琳坚持模型无关策略,客户可以自带模型密钥,也可以用格琳提供的,数据绝不会被用于训练模型。这种"瑞士中立"的立场,在模型厂商都想绑定客户的今天,显得格外珍贵。
给企业决策者的狠话与建议
如果你是一家企业的技术负责人或决策者,面对2026年的人工智能代理浪潮,有几句狠话得听进去:
第一,别指望一家厂商能包办一切。那些声称从模型到应用到界面全栈自研的厂商,要么是在吹牛,要么是在 lock-in(锁定)你。人工智能创新速度太快,今天最强的模型明天可能就被超越,绑死一家等于自断后路。
第二,上下文工程比模型选择重要十倍。花大价钱买最贵的模型,但上下文喂得一团糟,效果不如用中等模型但上下文工程做得精细。数据连接器、知识图谱、权限管理这些脏活累活,才是企业级人工智能的护城河。
第三,安全必须前置,不能事后补救。每个代理都是潜在的攻击面,统一的安全模型比一百个点状安全方案强得多。别让工程师为了跑通功能而绕开安全,那种债迟早要还,而且利息高得吓人。
第四,从水平化平台开始,逐步叠加垂直场景。先建好统一的上下文层、编排层、安全层,再在各个部门做定制化的代理和界面。别反过来,否则你会得到一堆数据孤岛和重复建设。
第五,保持开放和灵活。技术栈的每一层都应该可以独立替换和升级。