镁国防部长怒怼Anthropic:别再装了,要么听话要么滚!

美国AI公司Anthropic因拒绝将技术用于监控公民和自主武器,遭国防部警告“付出代价”。这场冲突揭示了政府、资本与科技公司在AI发展方向上的激烈博弈,以及对未来社会形态的深刻担忧。


照片里站着的那位西装革履、手指前方的大哥就是国防部长Pete Hegseth,旁边抱臂的是CIA局长Ratcliffe,坐着的那位不用介绍你也认识——特朗普总统。这张照片拍摄于今年1月的马杜罗突袭行动现场,当时五角大楼正在用Anthropic的Claude AI指挥作战,现在这却成了双方撕破脸的导火索。

一场价值2亿美元的AI伦理大战正式打响

国防部长Pete Hegseth正在酝酿一记重拳,准备把Anthropic这家AI公司列入"供应链风险"名单。这可不是普通的商业纠纷,而是相当于给Anthropic判了死刑——一旦上榜,任何想跟美军做生意的企业都必须跟Anthropic断绝关系。一位五角大楼高级官员向Axios透露,这个决定已经"近在咫尺"。

这事儿有多严重?打个比方,就像你学校食堂突然宣布某家食品供应商有安全问题,然后要求所有学生都不许吃这家供应商的东西,连带着全校小卖部、周边餐馆统统下架这家产品。Anthropic现在就是那个被针对的供应商,而美军就是这个掌握着数千亿美元采购预算的巨型食堂。


马杜罗突袭行动:Claude到底干了啥

今年1月,美军对委内瑞拉展开了一场代号不明的突袭行动,目标是抓捕前总统马杜罗。行动涉及轰炸加拉加斯多个地点,造成数十名古巴和委内瑞拉安全人员死亡。华尔街日报爆料说,五角大楼在这次行动中使用了Anthropic的Claude AI模型,通过Palantir的技术平台部署。

这事儿本来神不知鬼不觉,直到行动结束后,Anthropic的一名员工主动联系Palantir,询问Claude在这次突袭中具体扮演了啥角色。这一问不要紧,直接把五角大楼惹毛了。一位高级官员放狠话说:"任何可能危及我们战士作战成功的公司,都需要重新评估合作关系。"

Anthropic这边则坚称从未就具体行动与国防部进行过讨论,只说是"例行技术交流"。但五角大楼显然不买账,认为Anthropic这是在事后诸葛亮,想把自己摘干净。

核心矛盾:AI安全 vs 军事需求

Anthropic给自己立的人设是"AI安全卫士",他们的使用政策明确禁止将Claude用于开发武器、促进暴力或进行大规模监控。公司CEO Dario Amodei多次强调,要在"所有方式"上支持国防,但"不包括那些让我们变得更像专制对手的方式"。

但五角大楼要的是"无限制访问"。国防部长Hegseth今年1月在SpaceX总部演讲时直接开炮:"我们不会使用那些不让你打仗的AI模型。AI不会觉醒。"这话被外界普遍解读为对Anthropic的点名批评。

双方的谈判已经持续数月。五角大楼希望获得"所有合法用途"的使用权,包括武器开发、情报收集和战场行动。

Anthropic则死守两条红线flag:不准用于大规模监控美国公民,不准用于完全自主武器系统。

这Flag一立,五角大楼(美国国防部)就不乐意了。一位五角大楼官员抱怨说,这些限制存在"灰色地带",让实际操作变得困难重重。
五角大楼心想:我找你合作就是想让你帮我干这两件事的,你给我整这出?
于是,国防部长大人就发话了:Anthropic,你要是不改主意,不跟政府好好配合,那你可要“付出代价”哦!


供应链风险:Anthropic的噩梦

如果Anthropic真的被列入"供应链风险"名单,后果将是灾难性的。这个名单通常只留给外国对手,比如华为这种公司。一旦上榜,不仅价值2亿美元的直接合同泡汤,更重要的是连锁反应——任何与美军有业务往来的企业都必须证明自己没有使用Anthropic的产品。

考虑到Claude目前是美国十大公司中八家的选择,这种影响将远远超出国防领域。一位五角大楼高级官员赤裸裸地威胁:"拆解现有合作关系将是一件极其痛苦的事情,我们要确保他们为逼我们走到这一步付出代价。"

但五角大楼也面临两难。Claude是目前唯一部署在美军机密系统中的AI模型,在卫星图像分析、情报处理等任务中表现优异。竞争对手如OpenAI的ChatGPT、Google的Gemini、xAI的Grok虽然也在争取进军机密网络,但目前都只能在非机密环境中使用。替换Claude说起来容易,做起来将是"有序替换"的漫长过程。


道德的“军备竞赛”和谁才是“好人”

更有意思的是,五角大楼这么一闹,反而给Anthropic做了个免费广告。网上立刻炸开了锅,好多网友纷纷表示:“哟,这家公司有点骨气啊,以前错怪你了,以后就冲你这脾气,我订阅你的服务!”

你看,这就产生了奇妙的化学反应。本来大家觉得这些AI公司都是一丘之貉,跟政府穿一条裤子。结果Anthropic这么一“刚”,瞬间成了“道德模范”。大家开始讨论,到底该相信谁?

有人说:“这绝对是Anthropic的营销套路!先假装拒绝,让大家都觉得他们是好人,最后还是会乖乖听话的。”但也有人反驳:“得了吧,你以为现在白宫那帮人是吃素的?他们巴不得用AI来搞大规模监控,看谁不顺眼就定点清除,这哪是营销,这是真正的生死抉择!”

这里面还牵扯出另一位大佬——埃隆·马斯克和他的xAI公司,以及他们的模型Grok。有人猜测,这是马斯克在背后搞鬼,想挤掉竞争对手,让自己的Grok垄断政府的国防合同。你想啊,如果政府只用Grok,那Grok就变成了“官方指定AI”,这得是多大的买卖!

但是又有人跳出来说,就Grok那水平?在网上动不动就胡言乱语,跟个喝醉了的网红似的,用它来搞国防,你是怕敌人不笑死吗?虽然有人解释说,网上那个疯疯癫癫的Grok和正经工作的Grok是两码事,但这也足够让人捏把汗了。

这就好比两个武馆争着要给朝廷当御前侍卫。一个是名门正派Anthropic,讲究武德,说不能乱杀人;另一个是野路子xAI,功夫可能差点,但胜在听话,老板跟朝廷关系还铁。你说朝廷会选谁?用脚趾头想都知道,肯定选那个听话的。哪怕这个听话的徒弟有点愣,但领导让打谁就打谁,多省心。

资本、权力和未来世界的模样

这件事背后,其实是资本和权力的终极博弈。Anthropic这家公司背后站着谁?站着亚马逊和谷歌这两大科技巨头。他们投了差不多40%到50%的股份。你说Anthropic敢完全不听政府的吗?也不能,毕竟政府可以卡你的审批,卡你的电力,卡你建数据中心的地皮。但是,有了亚马逊和谷歌撑腰,Anthropic就有了那么一点点叫板的底气。这就好比你家虽然没啥大官,但你有个当亿万富翁的舅舅,村支书想欺负你之前,也得掂量掂量。

网上吵得最凶的一个点是,Anthropic到底会不会屈服?有人说,放心,他们早就跟另一个给政府干活的“大数据公司”Palantir勾搭上了,所谓的道德底线早就没了。但也有人拿出了一个证据,说Anthropic其实已经拿到了GSA(美国总务管理局)的大合同,可以跟所有政府部门合作,不光是国防部。所以,国防部想用“断粮”来威胁他,效果可能没那么大。

这就像是一个公司有好几个大客户,其中一个客户A说:“你必须按我的要求改产品,不然我就不买你的东西了!”公司可以硬气地回答:“随便,我还有客户B、C、D呢,而且你的竞争对手也在用我的产品。”但客户A是政府,他可以想别的办法,比如发动舆论说你“不爱国”,或者让你的其他客户也感受到压力。

更可怕的是,有些网友直接指出了问题的本质。他们说:“你想想,国防部为什么这么着急?因为现在白宫那帮人,想要的可不只是监控。他们想要的是,用AI来识别谁是‘敌人’,然后让无人机‘自主’地去消灭他们。这才是真正的‘代价’,是无数人的生命。”

这话听起来很吓人,但它反映了人们对技术失控的深深恐惧。当AI的决定权,从“辅助人类决策”变成“替代人类决策”,尤其是在战场上,那意味着什么?意味着机器可以合法地杀人,而且可能杀得比人类更快、更高效、更不带感情。

有人说,这套系统可以用来对付敌人的无人机蜂群。比如上千架无人机扑过来,人类根本反应不过来,必须靠AI自动反击。听起来有道理,但技术是中性的,它能用来打无人机,就能用来打抗议者,打任何被定义为“敌人”的人。而且,你怎么保证AI百分百不会出错,不会把一群放学回家的孩子当成无人机蜂群?这个责任谁来负?

在“科技战车”上,我们该何去何从

这场闹剧,最终把我们每个人都拉到了一个问题面前:我们想要一个什么样的未来?是希望AI成为辅助人类、让生活更美好的工具,还是希望它变成一个被少数人掌握、用来控制和消灭“异己”的终极武器?

一个网友的评论特别扎心:“我们正在从民主资本主义,过渡到技术新封建主义。马斯克、扎克伯格、贝佐斯这些人,就是新世界的大领主,而特朗普,就是他们的国王。”这话虽然偏激,但确实描绘了一幅令人不安的图景。在这个图景里,权力不再完全掌握在政府和人民手中,而是转移到了那些控制着数据和算法的大公司和他们的代言人手里。

还有人说,美国现在已经是个“安全风险”了,因为它的政府太不稳定,太容易被少数人的意志左右。一个连自家公司“不卖监控技术”都要威胁的国家,你还指望它能对世界负责吗?

当然,我们也要看到,还是有公司愿意站出来说“不”的。不管这是真正的道德坚守,还是精心策划的公关策略,至少它引发了这场讨论,让更多人看到了技术背后的政治博弈。有网友就表示:“就冲这个,我马上取消OpenAI的会员,转订Anthropic!用钱投票,支持有骨气的公司!”

但也有人泼冷水:“你想得太简单了,最后Anthropic肯定会妥协的。这不过是场戏,演给你们这些‘公众’看的,让你们乖乖接受未来的监控社会,别闹事。”

行业地震:AI伦理的商业代价

这场冲突不仅仅是Anthropic一家公司的麻烦,它正在树立整个行业的先例。如果五角大楼成功迫使Anthropic放弃安全护栏,其他AI公司将面临同样的压力。反之,如果Anthropic能够守住底线,将为AI伦理在商业与军事合作中争取到一定的话语权。

内部消息显示,Anthropic的工程师们对与五角大楼的合作本就存在分歧。公司去年刚以3800亿美元估值完成融资,正在筹备IPO。在这个节骨眼上与最大客户之一闹翻,无疑是在冒险。但妥协的代价可能更大——一旦放弃"安全第一"的品牌定位,核心人才的流失将比失去政府合同更致命。

五角大楼发言人Sean Parnell在声明中试图占据道德高地:"战争部与Anthropic的关系正在审查中。我们的国家要求合作伙伴愿意帮助我们的战士在任何战斗中获胜。归根结底,这关系到我们的部队和美国人民的安全。"

Anthropic的回应则显得谨慎而外交:"我们正在与战争部就如何继续这项工作,并妥善处理这些新的复杂问题进行富有成效的真诚对话。"