Claude联手Maven,24小时AI精准猎杀千个目标


为了在24小时内打击伊朗的1,000个目标,美国军方利用了有史以来最先进的人工智能。Anthropic的Claude与军方的Maven智能系统合作,建议目标并发布精确的位置坐标。

美军在伊朗军事行动中大规模使用Anthropic的Claude人工智能系统进行实时目标识别与打击优先级排序,却在行动前夕因监控与自主武器控制权争议宣布禁用该技术,引发军方对AI技术路径依赖与伦理边界激烈讨论。



当战争遇上算法,五角大楼谈了一场注定分手的恋爱

事情要从2026年3月6日说起,那天美国决定对伊朗发动一场规模空前的军事行动,目标是在24小时内打击1000个目标。这个数字听起来像是某个游戏成就,但背后却是真刀真枪的导弹和无人机。

要完成这种级别的操作,人类指挥官的大脑显然不够用,就算把全美国的军事学院毕业生都召集起来,让他们拿着放大镜在地图上一个一个找目标,估计找到第50个的时候伊朗那边早就发现不对劲了。

这时候就需要请出我们的主角,一个由Palantir公司开发的军事智能系统,它的名字叫Maven Smart System,中文可以翻译成"行家智能系统",虽然这个名字听起来像是某个家政服务APP,但它干的事情可比打扫卫生刺激多了。

这个系统的核心能力是从海量的机密数据中挖掘情报,数据来源包括卫星图像、各种监控设备以及其他情报渠道。你可以把它想象成一个超级侦探,只不过这个侦探不需要睡觉,不需要喝咖啡,而且处理信息的速度比人类快了几千倍。

当Maven系统开始运转的时候,它就像一个永不停歇的信息吸尘器,把来自179个不同数据源的信息全部吞进去,然后吐出一堆经过整理分析的目标清单。这些清单上会标注每个目标的重要性等级,就像你在餐厅点菜时看到的推荐菜品一样,只不过这里的"推荐"意味着要不要发射导弹。



技术联姻:Claude如何成为军方的梦中情人

就在Maven系统已经很强悍的基础上,五角大楼又给它装上了一个更厉害的插件,这个插件就是Anthropic公司开发的Claude。

如果你不熟悉AI领域,可以把Claude理解为一个超级聪明的聊天机器人,它不仅能跟你聊天,还能理解复杂的指令、分析大量文本、甚至帮你写代码。但在军方的应用场景里,Claude的工作内容要硬核得多,它需要帮助分析卫星图像、识别军事目标、评估打击效果,基本上就是把一个文科生强行培训成了军事分析师。

这次在伊朗的军事行动是Claude首次被大规模用于实战环境。

根据知情人士透露,在行动准备阶段,Maven系统结合Claude的能力,提出了数百个打击目标的建议,并且给出了精确的坐标位置。这些坐标不是大概的方位,而是精确到米级的定位,就像你在导航软件上输入目的地后得到的具体地址一样,只不过这里的"目的地"是要被炸掉的军事设施。

Claude还负责对这些目标进行优先级排序,哪些目标应该先打,哪些可以等等,哪些打了之后会产生连锁反应,这些复杂的决策逻辑都由AI来完成。

这种组合产生的效果是惊人的。传统的军事行动计划通常需要数周甚至数月的时间来制定,参谋们要开会讨论、要画地图、要模拟各种情况,整个过程繁琐得像是在准备一场婚礼。

但现在有了Maven加Claude的组合,这一切被压缩到了实时操作的水平。指挥官可以在行动进行中就获得新的目标建议,战场情况一变,AI马上就能给出新的方案。这种速度优势在战争中意味着生死,当伊朗方面还在试图理解发生了什么的时候,美军的下一轮打击已经准备就绪了。



爱恨交织:一段注定悲剧的办公室恋情

然而,就在这场技术盛宴进行得如火如荼的时候,剧情突然来了个大反转。就在轰炸伊朗的行动开始前几小时,特朗普总统突然宣布了一个让所有人都措手不及的决定:美国政府机构将全面禁用Anthropic公司的技术,给各部门六个月的过渡期来逐步替换。这个消息就像是你在结婚典礼上突然宣布要离婚一样,时机选得极其微妙,尴尬程度直接拉满。

这个决定的背后是一场持续已久的拉锯战。

Anthropic的CEO Dario Amodei是一个对AI伦理有着强烈执念的人,他坚持认为公司的技术不应该被用于某些特定的军事用途,特别是大规模国内监控和完全自主的武器系统。你可以把他想象成一个有洁癖的程序员,写代码的时候不仅要功能正确,还要确保代码不会被用来做坏事。但问题是,五角大楼花钱请他来就是为了做"坏事"的,至少在Amodei看来,某些军事行动属于"坏事"的范畴。

双方的争议焦点集中在两个问题上。第一个是监控范围,军方希望Claude能够处理更多的国内数据,用于识别潜在的威胁,但Amodei担心这会导致大规模监控,侵犯公民隐私。第二个是自主武器的控制权,军方希望AI能够在某些情况下自主决定开火,不需要人类确认,但Amodei坚决反对让机器拥有生杀大权。这两个问题触及了AI伦理的核心,一方追求的是效率和安全的最大化,另一方坚守的是道德和责任的底线。

谈判最终破裂,特朗普政府选择用行政命令的方式强行切断与Anthropic的合作。但这里出现了一个极其讽刺的局面:虽然政策上禁止了,但技术上却离不开。军事行动已经启动,Claude已经深度嵌入到Maven系统的每一个环节,突然拔掉这个插件就像是给正在做手术的病人拔掉呼吸机一样,后果可能是灾难性的。

于是出现了文章开头描述的那一幕:政府宣布禁用,但军方继续使用,双方陷入了一种奇怪的"分居但不离婚"状态。



技术依赖:当戒断反应遇上国家安全

军方对Claude的依赖程度已经到了令人担忧的地步。

据知情人士透露,Maven系统现在已经不是某个特定部门的专属工具,而是遍布美军各个作战单位,有超过两万名军事人员在使用这个系统。这个数字意味着,从五角大楼的参谋到前线作战的士兵,从情报分析师到后勤保障人员,几乎每个人都在某种程度上依赖着这个AI系统。它已经成为军事指挥链条中不可或缺的一环,就像电力对于现代社会一样,平时感觉不到它的存在,一旦断电整个社会就会瘫痪。

这种依赖不仅仅是使用习惯的问题,而是涉及到核心作战能力的构建。

在过去的一年里,军事规划人员见证了Claude与Maven组合的成长,从一个实验性的工具变成了日常作战的标准配置。它参与了反恐行动的策划,协助完成了抓捕委内瑞拉总统马杜罗的突袭行动,现在又在伊朗的军事行动中扮演关键角色。每一次成功的应用都加深了军方对这个系统的信任,同时也增加了替换它的难度。

特朗普政府虽然嘴上说着要禁用,但实际操作中却面临着巨大的技术挑战。

找到能够替代Claude的AI系统不是简单的软件卸载重装,而是需要重新训练模型、重新整合数据流、重新培训操作人员,整个过程可能需要数年时间。而在国际局势瞬息万变的今天,五角大楼根本等不起这么长的时间。更何况,即使找到了技术上可行的替代方案,新系统是否能够在实战中表现出与Claude同等的水平,也是一个巨大的未知数。

这种困境让军方陷入了两难的境地。一方面,他们理解并尊重Amodei的伦理立场,毕竟谁也不想成为科幻电影中那个被失控AI毁灭人类的反派角色。但另一方面,当士兵的生命安全和国家的战略利益受到威胁时,伦理考量必须让位于现实需求。

正如一位军方人士所说,无论Amodei的道德判断是对是错,五角大楼都不会让他的决定导致任何一名美国士兵丧生。这句话听起来很冷酷,但在战争的环境下,这种冷酷恰恰是指挥官必须拥有的品质。



竞争格局:AI军备竞赛中的新老交替

Anthropic的退出为其他AI公司创造了进入国防市场的机会。就在禁令宣布的同时,Elon Musk的xAI公司迅速与政府签署了合作协议,获准处理机密级别的军事数据。OpenAI,作为Anthropic在AI领域的主要竞争对手,也拿到了类似的合同。这两家公司的入局标志着军用AI市场正在经历一次重大的格局调整,从Anthropic一家独大转向多强竞争的态势。

这种竞争对于五角大楼来说既是机遇也是挑战。机遇在于,有了更多的供应商选择,军方在谈判中就有了更大的议价能力,不再像之前那样被单一供应商的技术路线所束缚。挑战在于,不同的AI系统有着不同的技术架构和训练数据,从一个系统迁移到另一个系统需要巨大的转换成本。更重要的是,每个AI公司都有自己的伦理标准和商业考量,今天与xAI或OpenAI达成的协议,明天可能因为类似的伦理争议而面临同样的破裂风险。

北约组织也在密切关注这一发展。去年,北约与Palantir签署了合作协议,部署了自己的Maven系统版本。在最近发布的一段宣传视频中,北约将这套系统描述为赋予指挥官"电子游戏般的战场掌控能力"。这种描述虽然听起来有些轻佻,但准确地捕捉到了现代AI军事系统的核心特征:直观、实时、可视化。指挥官不再需要面对枯燥的地图和表格,而是可以通过类似游戏界面的方式,直观地看到战场态势,快速做出决策。

美国陆军第18空降军的一项研究显示,使用Maven系统后,一个炮兵单位的工作效率提升了整整一百倍。原本需要两千名参谋人员才能完成的火力协调任务,现在只需要二十个人就能搞定。这种效率提升不是渐进式的改良,而是革命性的飞跃,它改变了战争的基本逻辑,让"以快制慢"成为可能。当一方能够在几分钟内完成敌方需要几天才能完成的决策循环时,战争的结果往往在第一个回合就已经注定了。



伦理困境:算法决定生死的时代已经到来

Claude在伊朗的应用引发了关于AI伦理的激烈讨论。支持者认为,AI系统能够减少战争中的附带伤害,因为机器不会像人类那样受到情绪、疲劳或偏见的影响,能够更冷静、更客观地评估每一个打击方案的利弊。反对者则担心,把生死决策交给算法是对人类尊严的亵渎,而且AI系统存在着固有的不可靠性,可能会因为训练数据的偏差或算法的漏洞而做出灾难性的错误判断。

Paul Scharre,新美国安全中心的执行副总裁,是研究AI军事应用的权威专家。他指出,AI在军事领域的应用已经从理论假设变成了现实操作,这是一个值得注意的转折点。

关键的模式转变在于,AI让美军能够以机器速度而非人类速度开发打击方案。在传统的作战流程中,从发现目标到实施打击可能需要数小时甚至数天,期间目标可能已经移动或消失。而AI系统可以在几秒钟内完成目标识别、坐标计算、优先级排序的全过程,大大压缩了"发现即摧毁"的时间窗口。

但Scharre也警告说,AI系统会犯错。当赌注是生命和死亡的时候,必须有人类来检查生成式AI的输出结果。这个警告不是杞人忧天,而是基于对AI技术现状的清醒认识。当前的AI系统,包括最先进的Claude,都存在着"幻觉"问题,即有时会自信满满地给出完全错误的答案。在写邮件或做文案时,这种错误可能只是有点尴尬;但在军事打击中,这种错误可能导致平民伤亡或战略误判。

这种风险在伊朗的军事行动中尤为突出。

据报道,Claude不仅参与目标识别,还负责对打击效果进行实时评估。这意味着在导弹击中目标后,AI会立即分析传回的图像和数据,判断打击是否成功,是否需要补射。这种闭环反馈机制提高了作战效率,但也把AI的决策链条延伸到了后果评估环节,进一步模糊了人类判断和机器判断的界限。