- 大模型具有很强的理解和生成自然语言的能力,但有时会产生幻觉事实。
- KG 以结构化格式明确表示事实知识,但缺乏语言理解。
- 大模型可以共同为知识图谱中的严格事实提供背景和细微差别,而知识图谱可以将 大模型的自由流动文本扎根于现实。
- 大模型LLM 中的直观知识补充了 KG 中的逻辑知识。 KG 可以通过外部知识来增强 LLM 的能力,以提高推理能力和可靠性。 大模型可以帮助 KG 更好地利用文本数据。
- 与单独使用任一技术相比,通过协同, 大模型和 KG 可以在语言和知识密集型任务上实现更高的性能。他们的合作能够实现人工智能通过数据驱动和知识驱动方法的融合来增强人类智能的承诺。
综上所述,大型神经语言模型和结构化知识图的优势互补,使其成为旨在结合推理、语言和知识能力的人工智能系统的理想合作伙伴。它们的协同统一可以克服这两种方法的局限性。
将大型语言模型(LLMs)和知识图谱(KGs)统一在三个主要框架中:
1) 知识图谱增强型 LLMs:
- - 在预训练或推理阶段将知识图谱纳入 LLMs
- - 使用知识图谱分析和解释 LLMs
- - 旨在提高 LLMs 的知识意识、性能和可解释性
2) LLM 增强型 KG:
- - 应用 LLM 增强各种 KG 相关任务,如嵌入、补全、构建、问题解答
- --旨在处理传统 KG 方法在处理文本、未见实体等方面的局限性。
3) LLMs + KGs 协同:
- - 将 LLMs 和 KGs 整合到一个统一的模型/框架中- 相互增强能力,例如 LLMs 的语言知识 + KGs 的事实知识
- - 目标是结合两种方法的优势进行双向推理。
知识图谱增强型 LLM
目标是用知识图谱(KG)增强 LLM,以提高其知识意识、性能和可解释性
1、知识图谱增强的 LLM 预培训:
在预训练阶段通过以下方式将知识图谱知识注入 LLM:
- 1)包含知识图谱实体和关系的训练目标
- 2)修改 LLM 输入以包含知识图谱三元组
- 3)附加编码器或融合模块以单独处理知识图谱
2、 KG 增强型 LLM 推理:
在推理过程中将 KG 与 LLM 分开,以便在不重新训练的情况下纳入最新知识。
方法包括:
- 1)使用图网络或注意力进行动态知识融合,将 KG 与 LLM 上下文表征融合在一起
- 2)检索增强型知识融合,在推理过程中动态检索相关 KG 事实
3、KG 增强的 LLM 可解释性:
通过以下方式使用 KG 来分析和解释 LLM:
- 1) 探究--将知识事实转换为语句,以测试 LLM 的知识
- 2) 分析--在每一步将 LLM 输出与知识对齐,以追踪推理过程和知识起源
LLM 可以增强知识图谱(KGs)
- - LLM 凭借其自然语言处理能力,可以帮助改进各种与知识图谱相关的任务。
- - LLM 增强的 KG 嵌入:使用 LLM 对知识图谱实体和关系的文本描述进行编码,以丰富其表现形式。LLM 可用作额外的文本编码器,也可直接用于文本和 KG 的联合嵌入。
- - LLM 增强的 KG 完成:LLM 可以编码或生成缺失事实,其性能优于仅使用图结构的方法。LLM 可以充当编码器(编码上下文)或生成器(预测实体)。
- - LLM 增强的 KG 构建:将 LLM 用于命名实体识别、实体键入、链接和关系提取等任务,从文本中构建 KG。最近的研究探索了端到端 KG 构建和从 LLM 中提炼 KG 的方法。
- - LLM 增强的 KG 文本生成:LLM 可以通过对图结构和排列进行编码,生成描述 KG 事实的高质量文本。还可以构建对齐的 KG 文本语料库。
- - LLM 增强的 KGQA:LLM 可用于将问题与 KG 结构相匹配(作为实体/相关提取器),或对检索到的事实进行推理(作为答案生成器)。
协同 LLM 和 KG
对于知识表征:
- 联合预训练 LLM 和 KG,使它们的表征一致
- KEPLER 和 JointGT 等方法提出了联合目标,将文本和 KG 嵌入到共享空间中。
在质量保证中,方法使用 LLM 处理文本并检索相关的 KG 事实,然后使用 KG 结构对事实进行推理
在逻辑推理中,LLM 可以生成在 KG 上执行的逻辑查询,并将结果融合回 LLM 中。
统一的 LLMs + KGs 可以增强搜索、推荐和人工智能助手等各种应用。