这篇文章是Kimi K2发布后不久,Kimi团队成员写的个人反思。
·超越聊天机器人:Kimi K2实验了一种“工件优先”的交互模型,该模型让AI立即构建交互式前端可交付成果--如PPT页面、图表,甚至是小游戏--而不是简单地返回markdown文本。
·工具使用,减少痛苦:团队没有将无数的第三方工具连接到RL训练中,而是通过多智能体的自我发挥自动生成巨大的、多样化的工具调用数据集,唤醒了模型内部潜在的API知识。
·是什么造就了一个代理模型:一个最小的循环--思考、选择工具、观察结果、迭代--可以从合成轨迹中学习。今天的智能体能力还处于早期阶段;下一波预训练仍然有很大的上升空间。
为什么要开源:
(1)嗡嗡声和声誉,
(2)社区贡献,如MLX端口和24小时内的4位量化,
(3)开放权重禁止“黑客”隐藏管道,强制真正强大的通用模型-正是面向AGI的创业公司所需要的。
·营销争议竞争:停止投放广告后,Kimi几乎从应用商店搜索中消失,但拒绝恢复消费。DeepSeek-R1的病毒式增长证明了原始模型质量本身的市场化,并验证了“基础模型优先”的路径。
原文重要观点:
年初 DeepSeek-R1 暴涨之后,很多人说 kimi 是不是不行了,你们是不是恨死 DeepSeek 了?恰恰相反,不少同事都认为 DeepSeek-R1 的爆火是个大好事, 它证明了硬实力就是最好的推广,只要模型做的好,就会获得市场认可;他证明了那条我们相信的路不仅能走通,而且是一条康庄大道。 唯一的遗憾就是:这条路不是我们走通的。
在年初的反思会上,我提出了一些相当激进的建议,没想到植麟后续的行动比我想的还要激进,比如不再更新 K1 系列模型,集中资源搞基础算法和 K2(还有更多不能说的按下不表)。
前一段时间各种 Agent 产品很火,我看到不少声音说 Kimi 不应该卷大模型,应该去做 Agent 产品,我想说:绝大多数 Agent 产品,离了 Claude 以后,什么都不是。Windsurf 遭 Claude 断供的事情更加证明了这一点。 2025 年,智能的上限仍然完全由模型决定,作为一家以 AGI 为目标的公司,如果不去追求智能的上限,那我一天也不会多呆下去。
追求 AGI 是极其险峻的独木桥,容不得一丝分心和犹豫,你的追求也许不会成功,但犹豫一定会失败。 2024年6月智源大会上我听到开复老师脱口而出地说“我作为一个投资人我会关注AI应用的ROI”,我就知道他创立的那家公司活不长了。