美国AI闭源等死,中国AI开源碾压

本文来自一美国博文:我们需要一个美国版的深度求索(DeepSeek)。  我们需要一个自主、开源的通用人工智能(AGI)巨头,而且现在就要。  
因为美国的前沿实验室正在输掉这场竞赛。  
不信?  

每出现一个美国的闭源或专有模型,我们就能看到中国涌现出数十个工业级开源模型。  
美国唯一的开源标杆——Meta,在2024年4月发布了Llama 3,但此后就被中国模型的海啸淹没。在AI领域,一年就是一辈子。更糟的是,Llama 3的多模态能力远不如中国模型,根本没法比。  

Llama 4可能会带来惊人的成果,但仅靠一家美国公司,怎么跟中国4、5甚至10家开源AI公司每月发布新模型的速度竞争?  

自Llama 3发布以来,中国已经推出了DeepSeek V2、V3(本周还有V3的新版本),以及能力惊人的DeepSeek R1,还有Qwen 2和2.5(强大的纯文本模型),以及Qwen 2.5 VL(可能是目前最强的开源多模态模型,训练数据涵盖视频、GUI导航、智能体任务等),还有刚刚发布的32B版本,再加上字节跳动等公司的模型,更别提中国在视频模型上的绝对碾压——它们已经彻底超越了Sora。  

Llama新版本快来了,但有传言称,DeepSeek R1发布后,Meta工程师紧急开会研究它的论文,试图找出Llama 4的问题,导致发布推迟——他们得先赶上R1的推理能力。  

你以为美国的芯片制裁能阻止中国AI的崛起?不可能。中国正在砸下数百亿研发更便宜、更快、更好的极紫外光刻机(EUV),现在已经在测试了。几年后,芯片制裁肯定彻底失效,唯一的结果就是全世界都去买中国芯片,而不是美国的。  

必须改变,而且要快。  

我们需要更多美国的开源标杆,现在就要。  

更糟的是,美国实验室不仅不开源,有时候甚至根本不发布。  

Sora在X(推特)上高调亮相,但快一年了还没发布,而国内外其他视频模型早已超越它。美国实验室被“有效利他主义”(EA)驱动的“安全”审查和对中心化控制的执念拖累,而中国公司却以疯狂的速度发布,看着我们自废武功,笑而不语。  

美国前沿实验室掉队的原因很多,但最大问题是算力。GPU贵得离谱,没人能买或租到足够的算力来满足需求。OpenAI刚发布GPT-4o的图像生成功能,几天后Altman就发推说他们的GPU“快烧了”。Gemini 2.5发布不到一周,Google AI Studio负责人就说他们仍受“速率限制”困扰,开发者每分钟只能发20个请求。似乎没有一家公司能应对超大模型的推理需求。  

有时候是商业原因。o3在击败ARC-AGI初代时轰动一时,但它去哪了?据说它驱动了DeepResearch,但除了OpenAI没人能用,只有o3-mini这种缩水版。他们宁愿用它增强自家工具,也不让你用它开发竞品。  

有时候是模型规模问题——归根结底还是算力。像4.5这样的新模型,训练算力是旧版的10倍,但贵得离谱,性能却没提升多少。预训练的规模法则已经失效。  
有时候是反技术和去增长的文化毒害了美国的创新和历史乐观精神。美国大实验室里充斥着想用锁链和护栏阻止、拖慢或阉割AI的人,甚至想彻底扼杀它。  

与此同时,DeepSeek、字节跳动和阿里巴巴等中国AI巨头,正照着美国当年全球软件霸权的老剧本出牌:  

用开放赢。用软实力赢。用“够用就好”赢。

基准测试高10分,但成本贵100倍,值吗?  

对80%的应用场景来说,不值。  

在美国公司苦于算力不足时,中国公司正疯狂发布模型。  

开源模型的优势是分布式算力。用户可以在自己的GPU上运行。既然没人能搞到足够的GPU,不如直接开源,让分布式算力发挥作用。虽然赚不到所有钱,但能抢占心智份额。而且部分钱会回流——当企业用开源模型开发应用时,很可能会找你购买更快的企业级推理服务或模型Max版,形成良性循环。  

开源是现在的赢家策略,也将是未来的赢家策略。  

未来十年,开源模型将成为智能经济的基石,上面会涌现大量闭源和开源应用。  

记住,开源不意味着没有闭源应用,而是把技术栈的某一层标准化,然后向上构建更有趣的东西。推特是闭源的,但它离不开Docker、Kubernetes、Linux和PyTorch这些开源组件。  

但开源怎么赚钱?软件免费了还能盈利吗?  

开源公司虽不能从每次部署中获利,但商业模式一直是:用标准化组件构建应用,提供企业支持和服务。这就是Red Hat、Hashicorp和MongoDB等公司能成为数十亿美元企业,同时“白送”核心产品的原因。  

在AI领域,这套模式会再次上演。  

开源公司会让智能标准化,而我们将在智能软件栈上继续攀登。  

我们将看到围绕模型的企业服务,如“长上下文”版本、针对特定场景的微调、推理扩展、内存优化、应用、API、SDK和咨询服务。还会出现“开源核心+高级功能付费”模式,比如“无限专家混合模型”(动态添加专家适配器以满足特定需求)部分开源,而高阶技能包收费。还会有更精致的集成界面、调优和训练平台。  

DeepSeek是AI的转折点。它在中国内外迅速普及,被Perplexity、亚马逊等企业广泛采用。  

过去二十年,美国主导的开源席卷全球,创造了数万亿美元的经济价值,驱动着你口袋里的手机、家里的路由器、AWS/Azure/GCP等美国云巨头,以及全球所有最强超算。  

从投入产出比看,没有任何东西能像开源这样在文明层面创造价值。正如Huggingface的Clem Delangue最近引用哈佛开源研究报告时所说:  

“开源投入41.5亿美元,为企业创造了8.8万亿美元价值(即每投入1美元,创造2000美元价值)。如果没有开源,企业在软件上的支出将是现在的3.5倍。”

中国公司学到了这一点。美国AI实验室却忘了。  

美国实验室全面转向闭源。它们曾从Transformer、PyTorch、Linux、Docker和Ray等开源研究中获益巨大,如今却走向完全相反的方向。  

当美国实验室专注于闭源模型,并试图通过禁止中国模型进入美国市场、推动严苛芯片出口管制来扼杀竞争时,中国实验室正用开源赢得胜利。  

但即便如此,光靠开源也不足以赢得AGI竞赛。  

我们需要不同的东西。更多的东西。我们必须解决AI最大的问题。  

什么问题?  

如何让AI盈利。

我们的实验室不仅不赚钱,还在烧钱。Anthropic卷入谷歌反垄断案,因为政府想阻止搜索引擎巨头投资AI公司,而Anthropic直接告诉政府:我们需要这笔钱活下去。尽管他们的高端模型订阅费高达200美元,Altman却说OpenAI仍在亏损。这并不奇怪——一块顶级GPU就要3-5万美元。  

尽管拥有数十亿美元投资和全球众多客户,它们仍未盈利。  

这不可持续。  

我们需要全新的AI商业模式,一个还没人想出来的模式。什么样的模式?  

能解决硬件问题的模式。

硬件问题是什么?这是AI目前最棘手的问题,不是新算法或如何做出更聪明、更快的模型,而是——  

GPU太TM贵了,它们成了AI实验室的无底洞。这是个死循环:GPU必不可少,但正是它们让实验室不断亏钱。  

公司筹集数十亿美元购买GPU集群,但它们贬值比新车还快。软件公司离不开GPU,但它们拖累了全球每家AI公司的利润。  

在AI的早期时代,唯一发财的人是黄仁勋(Jensen Huang,英伟达CEO)。  

那么,如何解决AI时代的死循环?  
我们得借鉴另一套玩法。