1. 训练是“偶然的”,推理是“永恒的”
* 训练(Training)
* 高度集中、周期性,一次性投入巨额计算资源(比如 GPT-4、Claude 3 的训练周期)。
* 模型一旦训练完成,成本 sunk(沉没成本)。
* 训练需求只发生在少数顶级公司(OpenAI、Anthropic、DeepMind)。
* 推理(Inference)
* 是每天、每时、每刻都在发生的:用户提问、企业 API 调用、自动化工作流执行。
* 推理需求持续、可叠加,和实际业务场景直接挂钩。
* 推理的计算成本长期压在厂商和客户的肩上,它决定了 AI 商业模式的毛利率。
这就是为什么埃里森说“所有花在训练的钱最终都要转化为推理产品”:训练再强,如果推理不可负担,就没有商业价值。
2. 推理成为瓶颈,暴露在 ChatGPT 时代
* ChatGPT 的爆红揭示了:瓶颈不是模型大小,而是如何高效、低延迟、低成本地服务数亿用户。
* OpenAI 最痛的点就是推理成本:每次调用都是 GPU 时间+能耗,而非一次性的训练投资。
* 这也是为什么微软、谷歌、亚马逊、Oracle 都在抢着建推理优化的数据中心,而不仅仅是训练集群。
3. Oracle 的位置:推理即服务(Inference-as-a-Service)
* Oracle 的基因在 数据库 + ERP + 企业 SaaS,长期为大客户提供可靠的事务处理(transaction processing)。
* 如果把“推理”看作类似于“查询”,那么 Oracle 的价值就是:
* 优化推理调度(像优化 SQL 查询执行计划)。
* 保证推理可靠性(不宕机、不丢结果、延迟稳定)。
* 在成本曲线下击败对手(数据库的经验迁移到推理的成本工程)。
这和单纯拼“谁的模型更大”是完全不同的赛道。
4. 主动推理(Active Inference)与 Karl Friston 的引入
* Karl Friston 是神经科学界被引用最多的学者,他的“主动推理(Active Inference)”框架本质上是一种贝叶斯预测模型:
* 大脑被视为预测误差最小化的机器。
* 决策和感知都是对“预测误差”的不断校正。
* Oracle 的 GENIUS 产品据说采用了这种理论,意味着它不仅是传统 LLM 的推理,而是试图嵌入更接近大脑工作方式的推理范式。
* 如果这是真的,那么 Oracle 不只是做“推理加速”,而是想通过理论突破拿下推理的护城河。
5. 行业叙事的转向:推理规模化才是经济关键
* 过去叙事:
* 谁能训练最大模型(GPT-3 → GPT-4 → Gemini 1.5)。
* 现在叙事:
* 谁能用最低成本、最高可靠性、最大规模提供推理。
* 推理 ≈ 云计算里的“交易处理”,才是真正能反复收费的地方。
这意味着未来的赢家未必是“训练最强的实验室”,而是“能在推理层面建立平台垄断的云厂商”。
✅ 总结来看:
埃里森的这句话点出了一个产业底层逻辑:
* 训练是技术炫耀;
* 推理是经济基础;
* 谁能把推理做得更像“公共基础设施”,谁就掌握了 AI 的利润引擎。
换句话说,AI 的下一个竞争战场不是谁能造出更聪明的大脑,而是谁能让这个大脑随时随地、低成本、安全可靠地为亿万人“思考”。
谁能把 “高质量推理” 做到 大规模、低成本、稳定,谁就掌握了真正的收入引擎。
而甲骨文暗示自己已经做到了!