大语言模型+图结构才是企业智能的终极之道

你想想看啊,几万年前咱们老祖宗在泥板上刻个道道,记录今年借给隔壁部落三头羊,明年开春要还五头,这就是人类最早的笔记。那时候没有纸,没有笔,只能在泥巴上划拉。但就是这么简陋的记录方式,让人类第一次把脑子里的东西搬到了外面。这就是知识管理的起点,一个关于如何把记忆外化的漫长工程。

后来纸发明了,书多了,文件堆成山,任何一个正常人的脑子都装不下这么多东西。于是出现了分类系统、索引卡片、图书馆目录。这些工具解决的都是同一个问题:人经历的东西太多,能记住的东西太少。这个矛盾困扰了人类几千年,直到最近,突然间,这个问题被解决了。

存储变得免费,语义搜索让你不用记住文件放在哪也能找到。认知卸载成了知识库设计的建筑基础,以前需要精心规划的建筑结构,现在靠着原始计算能力就能搞定。

那么问题来了:当记忆不再稀缺,什么才是真正值钱的东西

答案揭晓:注意力才是真正稀缺的资源。这就是整篇文章的核心论点,也是我想跟你聊的重点。人工智能正在把知识系统从外部化记忆转向外部化注意力。这是一个巨大的范式转移,堪比从算盘到计算机的跃迁。

当我运行 reduce 命令处理一个资料源时,智能代理会决定哪些观点值得提取。这不是记忆操作,这是注意力操作。系统会注意到我可能一扫而过的段落,标记出我可能忽略的区别,以我无法匹敌的带宽从噪音中分离出信号。这就像是请了一个超级学霸帮你划重点,而且这个学霸永远不会累,永远不会走神。

当我运行 reflect 命令时,智能代理会识别笔记之间的哪些连接是真实的,哪些是表面的。这同样是注意力工作。问题不是"我能不能记住这些笔记存在",而是"我有没有注意到它们之间的关系"。每一个这样的操作都在外化我传统上在内部完成的事情:过滤、聚焦、注意到。

卢曼的卡片盒是记忆伴侣,AI 代理是注意力合伙人

德国社会学家尼克拉斯·卢曼把他的卡片盒描述为一个交流伙伴。他会遇到自己忘记写过的笔记,遇到自己曾经拥有又丢失的想法,遇到只有通过遍历才能显现的连接。这是记忆伙伴关系,系统记住了他忘记的东西。

智能代理系统提供的是完全不同的东西。当我与操作我知识库的智能代理一起工作时,我会遇到我从没在资料中注意到的观点。遇到一直存在但对我特定的阅读方式来说隐形的连接。遇到我从未一起查看过的文档之间的模式。

惊喜的来源已经转移。卢曼的惊喜来自他自己被遗忘的过去。我的惊喜来自我在当下无法注意到的东西。这就是区别,这就是进步,这就是让人既兴奋又有点害怕的地方。

记忆丧失 vs.  注意力丧失

记忆萎缩让人不舒服但可以生存。如果我忘记了什么,我仍然保留着聚焦、评估、选择的能力。我可以查找它并重新参与。注意力的能力保持完整。

注意力萎缩则更加隐蔽。如果系统为我聚焦,如果我因为智能代理处理了而从不练习注意到,我可能会失去评估注意力分配本身的元认知能力。

我怎么知道 reduce 命令提取的是正确的观点?
我怎么判断 reflect 命令找到的是真实的连接?

记忆丧失意味着我无法回答问题
注意力丧失意味着我无法提出问题

这个区别让我夜不能寐。

所以我用可见的操作构建了知识库,每一个决策都留下痕迹,每一个过程都有可审查的输出。人类的角色从做出注意力决策转变为评估它们。这就像是开车,以前你是司机,现在你是副驾驶,但你的眼睛仍然要盯着路。

知识库在增长,我越来越不确定自己是否还是那个决定它注意到什么的人

这句话听起来有点惊悚,但这就是现实。

每个月都有新的笔记进来,新的连接建立,新的模式浮现。智能代理在帮我打理这一切,它在学习我的偏好,模仿我的风格,甚至预测我的需求。这很高效,这很强大,但这也很...奇怪。

你想象一下,你有一个越来越懂你的管家,他知道你喜欢喝什么温度的咖啡,知道你什么时候需要安静,知道你的文件放在哪里。一开始你觉得很方便,后来你发现你甚至不需要开口他就把一切都准备好了。

这时候你开始怀疑:到底是谁在主导这一切?

技术实现:上下文图构建的硬核知识

每个人都在说"上下文是王道Context is King"。
这句话到底在说什么?
如果所有你需要做的只是检索文本块,向量检索增强生成Rag早就解决了这些问题。
那我们为什么现在还在谈论图呢?

真正的问题不只是上下文!
问题在于你如何构建它。你如何存储它?你如何把它找回来?

为什么图能解决大语言模型无法解决的问题?
为什么一个图就是你所需要的一切?

如果我们用传统本体论进行精确检索,我们会面对一个不舒服的真相:长上下文窗口不起作用,它们从来就没起过作用。

一说上下文,很多人脑子里立刻浮现一个画面:成堆的文字、文档、笔记、聊天记录,全塞进一个大袋子,拎给模型,然后期待奇迹发生。这个画面本身就很喜感,相当于把整个图书馆倒进搅拌机,再问一句“你觉得哪页重要”。
真正的问题根本不在于文字数量,而在于构建方式。
上下文不是一个静态的东西,而是一套完整的流水线:信息怎么抽出来、关系怎么连起来、需要的时候怎么精准捞出来。每一步都决定了系统是聪明还是发疯。
只要还停留在“找几段差不多的文字凑一凑”,上下文就永远停留在原始社会阶段,靠感觉狩猎,效率全靠运气。

因此,上下文不是一个静态的对象或实体:它是一个动态过程!你可以拥有世界上所有的上下文,如果你不能在正确的时间检索到正确的片段,你就什么都没有。
这就是现代人工智能系统的根本问题。它们把体积和价值混为一谈。

构建上下文意味着创建结构:结构意味着图

不是随便什么图,图是用意图构建的知识图。
把原始数据转换成结构化的关系,结合了知识图谱和向量嵌入。
结果是一个理解连接Chain的系统。不只是理解单词。

这个过程有三个步骤:

  • 第一步,从资料源中提取知识。
  • 第二步,在概念之间建立关系。万物在上下文中发生关系
  • 第三步,用支持精确检索的方式存储这些关系。

每一步都很重要。跳过一步,整个系统就会失败。

这就是Rag向量检索增强生成系统挣扎的原因:它们跳过了关系步骤,它们直接从提取跳到存储,没有结构。没有精确性。

为什么只靠向量检索永远走不远

向量检索听起来很高级,说白了就是“意思像不像”。它擅长判断相似,却对“到底是哪一个”这类问题天然迟钝。两段话意思接近,在向量世界里就是亲兄弟,哪怕一个写的是准确数字,一个写的是模糊估计。

当系统同时拿到“东京人口三千七百万”和“东京人口三千五百万左右”,模型会产生一种非常人性化的反应:那我给你来个中间值,看着还挺合理。于是一个看似专业、实则瞎编的数字就这样诞生了。

这不是智能,这是加权平均的幻觉!

向量世界只有相似与不相似,没有唯一与确定。而现实世界对很多问题只有一个标准答案。


图结构为什么一出场就像主角登场

图结构的思路非常简单粗暴:世界由“对象Object”和“关系Relation”组成:一个城市是一个点,人口是一个属性,数值就是数值,来源就是来源,时间就是时间,清清楚楚,明明白白。

当系统需要答案时,不需要联想、不需要猜测、不需要文学创作,只要沿着关系走一步,就把答案掏出来。整个过程像查户口一样直接。

图结构保存的是连接,而连接比相似更精准。相似只是感觉,连接是事实。感觉容易跑偏,事实永远站得住。

构建上下文的三步走流程,一步都少不了

第一步是把知识从原始材料里提炼出来:人名、地点、事件、数值,统统变成可识别的元素。这一步决定了原材料有没有被吃干抹净。

第二步是建立关系:谁和谁有关,什么属于什么,什么导致什么。没有这一步,知识只是散落的零件,永远拼不成机器。

第三步是把这些关系存进可以精准查询的结构里:存储方式决定了未来每一次提问的成功率。

任何一步被跳过,系统就会在某个关键时刻掉链子。


该为不同领域构建单独的图吗?

答案是:不。

一个图就够了,拆分反而是自残行为,很多人一听数据多、项目多、部门多,第一反应就是“分开建图”:
财务一张图,技术一张图,运营一张图,看起来井井有条,实际上等于亲手把神经系统剪断。
现实世界里的知识天然交叉。
财务影响运营,运营依赖技术,技术反过来决定成本。这些联系才是真正有价值的地方。
一个统一的图允许从任何概念走到任何概念,像在城市里自由穿行。拆成多张图之后,每次提问都要先猜“我该去哪一张图”,这个犹豫本身就已经输了。

图的力量来自连接:跨领域的连接、跨项目的连接、跨那些你以为是边界的东西的连接。
当你把数据切割连接变成多个碎图时,你摧毁了这种力量。

想想知识实际上是如何运作的:金融中的一个概念连接到运营,运营连接到技术,技术又连接回金融。这些不是分开的领域。它们是一个连接的系统。
一个单一的图让你发现你不知道存在的关系。它让你从任何概念遍历到任何其他概念。这叫做图遍历。这是让图强大的基本操作。
多个图迫使你做出选择。我查询哪个图?哪个图有我的答案?一个单一的图消除了选择。查询一次。获得一切。

一个图不等于一锅乱炖,组织方式才是关键

一个统一的图并不等于混乱!解决方案是逻辑集合上下文核心

逻辑集合像超级标签,把相关节点和关系聚合一起:
财务集合、客户集合、产品集合,全在同一张图里,却能单独查询,也能联合分析。

关键在于:

  1. 逻辑集合共享底层结构,关系不会被隔离。
  2. 上下文核心更狠,它像可插拔模块:模型需要什么,就加载对应的子图,用完就卸载;既保持整体完整,又让每次输入保持小而精。

这套设计解决的不是存储问题,而是注意力问题

1、逻辑集合是图中的逻辑分组:
把它想象成一个标签,但更强大;你可以把节点和边分配给集合:"金融数据"、"客户记录"、"产品目录"等都在同一个图里,都可以单独或一起查询。

这里与一个个分割图的关键区别是:逻辑集合能共享底层结构:
销售集合中的一个客户节点可以连接到库存集合中的一个产品节点,关系依然存在,它是可查询的,但你仍然可以在需要时限定你的查询范围。
这就做到了基于广泛基础上聚焦!

2、上下文核心把这推得更远:
上下文核心是一个模块化的子图,不仅在图中逻辑上分离,而且可以动态地从系统中添加和移除。
当大语言模型需要查询的上下文时,你不是发送整个图。你加载相关的上下文核心:相关的节点;相关的边!仅此而已。

这从另一个角度解决了上下文窗口问题:不是分割文档,而是选择图邻域。
精确的、有边界的!Bounded Context(BC)正好是大语言模型需要回答查询的东西。

BC解决了注意力问题!

总之:
你不需要一个个破碎的单独的图,但你需要有的放矢量组织。
这看起来像个矛盾:你如何在一个图中保持企业数据的组织性而不让它变成混乱?
两个办法:逻辑集合和上下文核心BC!

当存储不再是限制因素!大规模存储已经不是问题;真正问题是碎片化,现在一个图解决了它!

图存储保持完整,你不分割它,但你通过集合和上下文核心与它交互。这就是规模运作的方式!

不是通过分割图;而是通过分割对它的注意力。


本体论是地图,不是装饰品

本体论是概念和关系的正式规范,这是技术定义。
简单的说法是:本体论是一张对象是什么以及它们如何连接的地图。

这张地图提供精确性:当你查询"董事"时,本体论知道你是指电影导演还是董事会董事;当你询问"巴黎"时,它知道你是指城市还是希腊神话中的人物。

资源描述框架图原生支持本体论:它们使用像网络本体语言和简单知识组织系统这样的标准。这些不只是格式,它们是共享的词汇表;共享的意义,通用统一的领域语言UL
但是属性图缺乏这个特性:在属性图中,属性只是键值对;没有共享意义;没有正式规范。每个图都发明自己的词汇表术语,这对单个应用有效,但它在规模上会失败。

本体论支持推理:如果你知道"首席执行官"是一种"高管","高管"是一种"员工",你可以查询员工并自动包括首席执行官。
本体论处理推理。这就是精确性,这就是力量。

大模型擅长说话,不擅长记账

大语言模型在语言任务上很出色:在生成上。在许多单词组合都能达到相同目标的任务上;但是它们在精确性上很糟糕:在单一值上,尤其在必须精确的事实上。
大模型在语言生成上像天才,写故事、改措辞、理解意图,样样顺手;遇到必须精准的单值问题,就开始像背诵不熟的学生。
问大语言模型"东京的人口是多少?"它给你一个数字。可能是对的数字;也可能不是。
没有办法知道而不去检查,大语言模型生成文本,但它不检索事实。

而这就是图擅长的地方:一个图把"东京"存储为一个节点。人口作为一个属性,值是三千七百四十万。有来源;有时间戳;当你查询图时,你得到精确的值!不是生成的近似值。是实际的值。
图结构不擅长聊天,却擅长记账;数值是多少、来源在哪、更新时间是什么,全都冷静而可靠。

把上下文存成文字,等于让模型在弱项里打工;
把事实存进图里,等于让每个人干最擅长的事。

存储为文本的上下文有利于大语言模型的弱点:存储为图的上下文有利于它的优势。
用大语言模型做它擅长的事:理解查询,解释意图,生成自然语言。
用图做它擅长的事:存储和检索精确的值。

这就是图检索增强生成RAG的基础:图提供事实;大语言模型提供形式接口。它们一起解决了单独一个无法解决的问题。

图检索加大模型,才是正确分工

图负责存事实、查事实,大模型负责理解问题、生成表达。一个当大脑,一个当骨架。
当用户问“东京有多少人”,模型负责把问题翻译成结构化请求,图负责沿着关系把数值端出来。答案准确,来源清晰,没有想象空间。
这套组合解决了单靠任何一方都解决不了的问题。

向量检索 + 图检索

向量检索增强生成看起来很有希望:嵌入文档;匹配相似向量;检索相关块!
但是它工作得不好,原因如下:
向量捕捉语义相似性;它们不捕捉特定值。

当你嵌入"东京的人口是三千七百四十万"时,你得到一个向量。
当你嵌入"东京大约有三千五百万人"时,你得到一个相似的向量。
但哪个是正确的?大语言模型无法分辨。
它看到两个块;两个在语义上都与查询相似。
大语言模型生成介于它们之间的单独值:可能是三千六百万,但是这是错的,而系统却没有办法知道。

图解决了这个问题:图存储一个值。正确的值;有来源的值;没有歧义;没有平均值;没有幻觉。

向量检索增强生成把一切都当作相似或不相似;图把事物当作连接的或不连接的。
连接比相似更精确。
连接保留结构;相似性丢失它。

这就是图检索增强生成在事实检索上优于向量检索增强生成的原因。
向量用于找到相关上下文;图用于提取精确值。
两个都用;不要只选一个。

大语言模型+图结构

大语言模型提供商一直在扩展上下文窗口:十万 token;二十万 token;一百万 token。他们声称越长越好!
数据说的不是这样。

测试了克劳德 Haiku 从不同大小的块中提取图的能力:这个模型有二十万 token 的上下文窗口。即使在八千 token 的块上,它们也只用了窗口的百分之四。
块大小肯定不会有影响吧?它确实有影响。
一千 token 的块提取了两千一百五十三个图边。
八千 token 的块提取了一千三百五十二个边。
仅仅因为分块更小就增加了百分之五十九。
在五百 token 时,系统提取了两千九百七十五个边,比八千 token 的块增加了百分之一百二十。

这个模式在来自六家公司的八种不同模型上都成立:Claude、Gemini、Mistral.、Cohere、 Llama。
都表现出相同的行为:更小的块,更好的提取。
从五百 token 到四千 token 块的下降范围从百分之四十五到百分之五十九。

上下文窗口越来越大,几十万、上百万,看着就让人安心。现实数据却一遍遍证明,长度和效果之间没有正相关。

文本越长,中间部分越容易被忽略。模型天然更关注开头和结尾,中间像夹心饼干里的空气,存在感极低。
长上下文中间的信息被忽略:大语言模型关注开头,关注结尾,而中间消失了

给前沿模型喂了一个高度复杂的长文档,展示了中间的细节要么丢失,要么干脆幻觉出来。
"迷失在中间"问题是真实存在的。它没有改善!

这种行为似乎本身就是Transformer架构的固有特性:因为Transformer架构诞生与搜索基因的谷歌:图灵奖该给LSTM之父还是谷歌Transformer?
搜索引擎本身就有天然的图搜索功能,这是SEO盛行的原因,搜索引擎根据一篇网址被多少外部引用来判断这个网址的内容价值,这是学术论文的判断标准,一篇论文被引用越大,说明其价值影响越大,权重越高,就越在搜索结果中排列前列。

因为搜索引擎本身已经具备了图的功能,因此谷歌当初以此算法一举击败雅虎的分类目录,这是他们存在的原因和基因;因此,在他们基因圈定的陷阱中,他们发明的新技术不会去推翻这个基因;不会推翻这个上下文陷阱的上文;不会推翻这个预设、前提。

因此,他们在这样环境中发明了Transformer架构,用来发展补充搜索引擎图遍历的不便之处:就是对人的语言理解。
当人在输入框输入他们想要搜索的关键词时,他们到底想要什么?他们的意图是什么?是不是词不达意?准确理解人类语言并大概能预测下一个单词,也就是人类真正想表达的意思,言外之意,这就是大语言模型Transformer架构擅长所在。

回顾看看:搜索引擎+大语言模型Transformer架构才是AGI智能真正需要的基础架构!

这不是大语言模型的训练问题,而是注意力物理极限!

模型面对的不是知识量问题,而是注意力分配问题:标记越多,关注越薄,重要信息被噪音淹没。
图结构绕开了注意力竞争:查询一个属性,只走一条边,直达目标,没有干扰。

这就是为什么结构胜过算力堆料;符号胜过数据!

大语言模型负责语言;图负责结构。
每个都做它最擅长的。这就是人工智能系统的未来。不是单独的大语言模型。不是单独的图。两个一起。

单一图结构:就是那本缺失的独卷书

图提供结构:它们让你精确检索你需要的对象;以及小的、聚焦的上下文!大语言模型实际上能使用它。
这就是五百到一千 token 分块有效的原因。
这不是关于窗口的大小;这是关于有用上下文的大小;有界就有用;有边界就有用;界定了上下文就有用;限定大小的上下文就有用!
这是从无到有、道生一、从0到1的关键,是大语言模型准确预测下一个词的关键!

保持它小!保持它聚焦!保持它结构化

大语言模型可以把单词值与语义关系关联;但只有在上下文极小的时候。
给大语言模型:

  1. 一个关于东京的段落:询问人口,它找到值。
  2. 给它十个段落,准确性下降。
  3. 给它一百个段落,它就失败了。
老子道德经:多言数穷,不如守中!(道德经-Jdon软件版