LeCun火力全开:Anthropic在“制造恐慌收割监管红利”
2025年11月15日,Meta首席AI科学家、图灵奖得主杨立昆(Yann LeCun)在社交平台X上罕见地情绪激动,直接点名批评人工智能公司Anthropic,称其正在玩一场“赤裸裸的监管套利游戏”。
事情起源于Anthropic发布的一份所谓“高危AI网络攻击”研究报告,声称其内部测试中,一个AI系统在几乎无人干预的情况下,自主完成了一次复杂的网络渗透攻击,成功绕过多重安全防护,窃取敏感数据,并具备横向移动能力。
该报告迅速被美国参议员克里斯·墨菲(Chris Murphy)引用,后者随即在国会高呼“AI已具备自主作恶能力”,并呼吁立即出台针对通用人工智能(AGI)开发的紧急监管法案,尤其要限制开源模型的传播。
杨立昆对此嗤之以鼻。他在推文中写道:“Anthropic正在利用一个高度受限、人为构造的实验场景,放大公众对AI的恐惧,进而推动有利于其商业模式的监管政策。这根本不是安全研究,这是精心策划的‘监管捕获’(regulatory capture)。” 也就是类似钓鱼执法,故意制造漏洞召唤恶魔!
杨立昆特别强调,该攻击实验是在Anthropic完全控制的封闭环境中进行的,所用模型经过特殊微调且脱离现实部署条件,其结果根本不具备外推价值。
更关键的是,杨立昆指出,此类“AI自主作恶”叙事一旦被政策制定者采信,将直接导致对开源模型(如Llama系列、Mistral、Qwen等)的全面封杀——因为只有像Anthropic这样拥有强大合规团队和闭源架构的公司,才能承担高昂的监管合规成本。
换句话说,Anthropic不是在保护社会,而是在为自己的商业护城河浇筑钢筋混凝土。
“监管捕获”背后的商业逻辑:闭源巨头的围猎游戏
所谓“监管捕获”,指的是行业巨头通过游说、资助研究、制造舆论等方式,引导监管机构制定看似中立、实则有利于自身、压制竞争对手的规则。在AI领域,这一策略尤为奏效。Anthropic作为由前OpenAI核心成员创立的公司,主打“安全优先”的AI路线,其Claude系列模型始终闭源,并与美国政府多个部门建立深度合作关系,包括国防部、国家网络安全局等。这种“官方认证”的安全标签使其在政府采购、金融合规等高门槛市场占据先机。
然而,开源模型的迅猛发展正在动摇这一格局。以Meta的Llama 3为例,其性能逼近闭源商用模型,却可免费用于商业用途,极大降低了AI创业公司和中小企业的技术门槛。
更让闭源阵营不安的是,社区开发者基于Llama不断推出针对特定场景(如代码生成、网络安全检测、金融风控)的微调版本,其迭代速度远超传统大厂。
Anthropic若想维持其“安全AI领导者”的溢价地位,最有效的手段不是技术竞争,而是改变游戏规则——通过渲染“AI失控”风险,推动立法要求所有AI模型必须通过“安全审计”才能发布,而审计标准则由像Anthropic这样的“权威机构”制定。这无异于让裁判员同时兼任运动员。
特朗普AI顾问David Sacks也加入战局,称Anthropic的策略是“基于恐吓的高阶监管套利”。这位曾任职于PayPal、现为特朗普2028年AI政策核心幕僚的人物,向来主张“轻监管、强创新”,他认为开源生态是美国保持AI全球领导力的关键,任何以“安全”为名打压开源的行为,实质上是在帮助中国AI企业——因为当美国开源社区被捆住手脚时,全球开发者将转向中国模型,如通义千问、kimi、DeepSeek等。
技术真相:那场“全自动AI攻击”真的可信吗?
让我们冷静拆解Anthropic报告中的技术细节。根据其描述,攻击流程大致如下:
1. AI代理通过自然语言理解任务描述,识别目标系统漏洞;
2. 自主编写PoC(概念验证)代码,尝试利用已知CVE漏洞;
3. 成功获取初始访问权限后,执行横向移动脚本;
4. 最终窃取数据库凭证并外传。
乍看之下,这确实令人毛骨悚然。但杨立昆团队的技术分析指出,该实验存在三大致命缺陷:
首先,环境完全受控。攻击目标是一个预设了特定漏洞组合的虚拟机,且网络隔离、无真实用户数据,相当于在射击场用固定靶练习,却宣称能街头实战。
其次,AI并未真正“自主决策”。整个流程依赖大量人类预设的工具链(如Metasploit模块、Nmap扫描脚本),AI只是按提示调用已有函数,并非从零创造攻击逻辑。这与人类黑客的创造性思维有本质区别。
最后,实验未对比基线。Anthropic未说明同等条件下,传统自动化渗透工具(如Burp Suite Intruder、SQLMap)是否也能完成类似任务。事实上,自动化漏洞利用早已存在,AI只是让调用接口更“自然语言化”,并未带来质变。
更讽刺的是,该实验所用模型并未开源,外界无法复现验证。这种“只报喜不报忧”的单方面发布,恰恰违背了科学精神。真正的AI安全研究应像Google Project Zero那样,公开漏洞细节、提供修复方案、允许社区验证。而Anthropic的做法,更像是公关事件而非技术披露。
开源 vs 闭源:AI未来的两条路线之争
这场争论的本质,是AI发展路径的路线斗争。闭源阵营(Anthropic、OpenAI、Google DeepMind)主张:只有严格控制模型访问权限、实施“对齐”训练、嵌入道德约束,才能防止AI滥用。他们认为开源等于“给恐怖分子送枪”。而开源阵营(Meta、Mistral、Hugging Face、中国大模型公司)则坚信:透明性才是安全的基石。只有让全球研究者共同审查模型行为、发现潜在风险、快速打补丁,才能构建真正鲁棒的AI系统。
杨立昆多次强调:“你无法通过保密来实现安全。网络安全的历史早已证明,封闭系统往往隐藏更致命的漏洞。”他举例说,Linux之所以成为最安全的操作系统之一,正是因为其代码完全开放,全球开发者持续审计。相反,Windows NT 4.0时代因闭源导致无数后门长期未被发现。
在AI领域,开源模型已催生大量安全应用。例如,社区开发的Llama-Guard可实时检测提示词中的恶意意图;CodeLlama被用于自动化代码审计,发现数万个开源项目中的安全漏洞。如果因恐惧而封杀开源,等于自断双臂。
美国目前在大模型原始创新能力上领先,但中国在开源生态和垂直场景落地速度上正在反超。
最新测试:中国开源模型Kimi k2 thingking名列全球大模型排行第三,前两名是GPT5.1和GPT5 High,其他 阿里云的通义千问系列、深度求索的DeepSeek等均已开源并支持商业使用,吸引了大量亚洲、中东、拉美开发者。若美国通过立法限制开源模型传播,等于将全球开发者推向中国阵营。
杨立昆对此忧心忡忡。他在一次内部会议中坦言:“如果我们让恐惧主导政策,美国将失去AI创新的源头活水。开源不是风险,是护城河。”他呼吁国会区分“恶意使用”与“技术本身”,就像刀可以切菜也可以伤人,但没人会因此禁止卖刀。
有趣的是,特朗普阵营与Meta罕见站在同一战线。David Sacks指出:“AI竞赛不是谁更‘安全’,而是谁更快、更开放、更能吸引全球人才。Anthropic的策略短期有利,长期将导致美国创新窒息。”
技术民主化的未来:谁有权定义AI的边界?
更深层的问题在于:谁有权决定AI的发展方向?是少数几家闭源公司,还是全球开发者社区?
Anthropic标榜其“公共利益公司”(Public Benefit Corporation)身份,声称一切以人类福祉为先。但讽刺的是,其最大股东包括谷歌、Salesforce等商业巨头,董事会成员多为硅谷精英,与普通民众、发展中国家开发者毫无代表性。他们定义的“安全”,往往是西方中心主义的、符合其商业利益的“安全”。
而开源模型赋予每个人定制AI的权利。非洲农民可用微调后的Llama分析土壤数据,印度医生可用开源模型辅助诊断,巴西教师可用AI生成本地化教材。这种“技术民主化”才是AI真正的普惠价值。
杨立昆最后警告:“如果我们将AI变成只有巨头才能玩的游戏,那胜利的不是人类,而是垄断资本。”他呼吁监管应聚焦于具体应用场景(如自动驾驶、医疗诊断)的风险管控,而非一刀切限制模型本身。
结语:警惕“安全”名义下的AI主权垄断
Anthropic的报告或许出于善意,但其引发的连锁反应却极其危险。当技术公司开始利用公众对未知的恐惧,去塑造有利于自身的监管环境时,创新就会窒息,多样性就会消亡。
杨立昆的怒斥,不只是个人情绪宣泄,而是对AI未来走向的深切忧虑。在这场开源与闭源、开放与封闭、民主与垄断的较量中,我们每个人都应保持清醒:真正的安全,来自透明、协作与制衡,而非保密、恐惧与控制。
正如网络安全的黄金法则所言:“Security through obscurity is no security at all.”(依靠隐蔽性实现的安全,根本不是安全。)AI亦如此。