DeepSeek V4开启中国Token出海:即将引爆美国AI基建行业大地震!

深度求索发布V4模型,性能接近美国顶尖产品但价格便宜很多,开源免费让美国企业面临艰难选择,要么跟进降价要么失去市场。

深度求索公司悄悄发布了他们的V4模型。这家伙完全开源,权重随便下载,性能直接对标美国最顶级的模型。但是价格呢?只有人家的零头。这比他们上次发布R1模型的时候震撼多了。

上次R1一出来,美股直接蒸发了好多钱,大概五分之一的价值一夜之间没了。这次V4的冲击力更大,因为它是真正能干活的东西。

V4家族有两个版本

先说大哥版本叫V4 Pro。这是一个混合专家模型,总参数1.6万亿。参数是什么?你可以理解为模型的脑细胞数量,越多脑子越大。但是它不是所有脑细胞都同时工作,每次只激活490亿个。这样既聪明又省电。它一次能看100万字的上下文,什么意思呢?就是把整本《三体》三部曲一次性喂给它,它全能记住。

再说小弟版本叫V4 Flash。这个总参数2840亿,每次激活130亿个。它是日常干活的主力,速度快成本低。这俩模型都用了大概33万亿个单词的数据训练。训练数据量有多大?相当于把整个维基百科反复读几千遍。你每天刷一年的抖音视频,全部加起来都没这么多信息。

考试成绩很能打

在AI圈有几个大家都认的考试。第一个叫MMLU Pro,就是测模型懂不懂各种知识。第二个叫GPQA Diamond,测的是科学推理能力,特别难。第三个更重要叫SWE-bench Verified,这个测的是模型能不能像真正的程序员一样写代码修bug。

在这些考试里,深度求索V4的成绩和美国顶尖模型Opus 4.7和GPT-5.5排在一起。稍微落后那么一点点,但真的只是一点点。打个比方,就像考清华你考了698分,人家考了700分。你愿意为了这2分多付几倍的钱吗?大部分人不愿意。这就是深度求索的核心武器。

大多数公司不需要最聪明的模型

这里要说一个重要的道理。真正需要顶级智能的行业其实很少。比如搞前沿科学研究的,寻找外星人的,破解人类基因组最难的那些问题的。还有就是在全世界最强的编程比赛里拿奖的那种水平。这些确实需要最顶尖的模型。

但是全世界99.9%的公司不是干这个的。他们就是正常做生意。写个邮件,做个PPT,分析一下销售数据,回答一下客户问题,写几段代码让网站跑起来。这些事情不需要诺贝尔奖级别的脑子。一个聪明的本科生就够了。而深度求索V4就是这个聪明本科生的水平。


老板们会算账

想象你是一家公司的CEO。你打开GPT-5.5的价目表,输出100万个字要30美元。Opus 4.7也差不多这个价。然后你再看深度求索,价格只有人家的一个零头。具体便宜多少?他们没完全公布,但业内人士估计大概是十分之一甚至更少。

关键是这个便宜的东西几乎能做你需要的所有事情。而且还是开源的,你可以根据自己公司的业务专门训练它,想怎么改就怎么改。你想把它装在自己的服务器上也可以,想放在云上也行,完全由你控制。那你作为CEO会怎么选?你凭什么每个月多花几十万美元去买那个贵的东西?你的股东不会答应。你的财务总监不会答应。

这里面有个大麻烦

英伟达的老板黄仁勋以前说过一句话。他说中国肯定会自己造芯片自己造模型,那还不如让他们用美国技术也就是英伟达的芯片来造。这个逻辑听着有道理。但现在反过来想,如果美国的大公司都把自己的AI战略建立在中国的开源模型上,那是不是也有问题?

最大的问题是国家安全。假设你的银行、你的医院、你的电网都在用中国的AI模型。这些模型虽然开源了,但里面的设计思路、训练数据、各种细微的文化痕迹都带着中国的影子。万一哪天中美关系紧张了,中国那边改一下模型架构,或者切断更新渠道,你怎么办?你整个系统突然就没人维护了。这是一个巨大的地缘政治风险。

出口管制到底管没管住

美国一直在对中国搞芯片出口管制。先进的不让卖。这个政策有没有用?答案是有点儿用,但又没什么用。先说有用的部分。深度求索自己在论文里承认了,他们确实缺算力。他们的Pro服务容量非常有限,一直要到今年下半年他们的超级计算中心建好了才能正常提供服务。他们现在想大规模服务客户都做不到,因为没芯片。

但是没用的部分也很明显。正是因为芯片被卡脖子了,他们才不得不在算法上拼命创新。你想想,如果你的硬件比别人差,那你只能把软件做得比别人好才能活。深度求索就是这样的。他们想出了全新的算法,即便用性能被削弱了的GPU,也能用很低的成本训练出V4这样的模型。所以出口管制反而逼出了更牛的创新。


蒸馏偷窃的说法站不住脚

几个星期前,美国AI公司Anthropic发了一份报告。昨天美国政府也说了类似的话。他们说中国的实体,主要是中国的人工智能实验室,正在进行工业级别的蒸馏。蒸馏是啥意思?就是用别人的大模型来训练自己的小模型。相当于你请了一个特级厨师做菜,然后自己在旁边学,学会了就自己做。

报告里说深度求索搞了15万次这样的学习。另一个中国公司月之暗面搞了340万次,还有个公司叫Minimax搞了1300万次。15万跟340万比,差得远呢。15万次根本不足以解释深度求索V4为什么这么强。

而且更关键的是,深度求索把整个模型开源了,还发了一篇特别详细的技术论文,把每一步怎么做的都交代清楚了。

你要是真的偷了别人的技术,你会写这么详细教别人怎么复制吗?逻辑上说不通。

美国投了天量资金

现在看看更大的图景。美国在AI领域投入了数万亿美元。这是人类历史上最快的基础设施建设。无数数据中心在盖,无数芯片在装,无数工程师在加班。这么多钱投进去,是需要回报的。投资者不是做慈善的,他们要赚钱。

但是如果全世界的企业都绕过美国的闭源模型,选择用中国的开源模型,因为中国的足够好又便宜得多,那美国这些投资的回报从哪儿来?没有人用就没有收入。没有收入股价就会跌。股价跌了经济就会出问题。而美国现在的经济很大程度上就是靠AI这块在撑着。这个风险极其巨大。


文化层面的问题更可怕

回想一下社交媒体是怎么改变世界的。社交媒体最早从美国兴起。Facebook、Twitter、YouTube,这些平台让美国在很多地方能够影响舆论,掌控叙事节奏。全世界的人都在看美国的内容,接受美国的文化。

现在反过来想一想。如果将来全世界都跑在中国的AI模型上,这些模型会说中国能说什么,不能说会什么。你说不对啊,开源了我可以改。没错,你可以改代码。但是模型里面那些微妙的文化细节你是改不掉的。

比如一个词的褒贬倾向,一个典故背后的价值观,这些是渗透在训练数据里的。就像你在中国长大,你怎么学英语都带着中文的思维习惯,一个道理。


美国该怎么办

接下来美国必须做两件事。

第一件事,美国必须更大力地拥抱开源。现在美国最顶尖的AI实验室都不太喜欢开源。谷歌算是个例外,但他们做的开源模型都是小规模的,跟深度求索V4这个级别的没法比。其他公司更是把自己的模型捂得死死的。这不行的。开源的力量在于全世界的人都能帮你改进,帮你找bug,帮你应用到各种场景。闭源就像自己关起门来练武功,练得再厉害也比不上全天下的聪明人一起帮你。

第二件事,就算美国坚持走闭源路线,OpenAI和Anthropic也必须大幅度降价。不是降价一点点,是要降到原来的十分之一甚至更低。因为美国的企业正在算账,而现在的账算下来,用中国的模型对他们更有利。如果美国模型不降价,企业就会跑掉。等企业都跑光了,再想拉回来就难了。


深度求索没有真正追上美国

这里要说清楚一个事实。深度求索并没有真正在技术水平上追上美国。他们还是落后那么一点点。顶尖的突破性创新,那种从零到一的原创发明,还是美国在做。但是深度求索做了一件更聪明的事。他们造了一个足够好用的东西,然后免费送给全世界。这个策略太狠了。

你想想,如果一个人卖苹果,十块钱一斤,特别好吃。另一个人卖苹果,九块钱一斤,稍微差一点点也好吃。你会买哪个?可能还犹豫一下。但如果第二个人说不要钱随便拿呢?你肯定拿免费的。深度求索就是这个卖免费苹果的人。大量的美国公司会接受的。因为不花钱的东西,试试又不会死。

暴击是价格

深度求索V4的成本低到什么程度?他们训练这个模型用的钱,据估算只有美国同类模型的十分之一到二十分之一。为什么能这么便宜?因为他们在算法上的创新,加上用的都是被限制的低端GPU,这些GPU本来就便宜。他们硬是用廉价的建筑材料盖出了一栋能住的大楼。

美国公司现在就很尴尬了。他们也想降价,但是他们的成本摆在那里。降太多自己亏钱,不降客户就跑了。这就是深度求索给他们挖的坑。而且这个坑里还放了开源这个更大的炸弹。你根本没法跟免费竞争。美国政府现在应该很头疼,他们想限制中国的AI发展,结果越限制对手越强。这叫什么?这叫搬起石头砸自己的脚。


还有一个隐藏的王炸:电费

聊完模型性能、开源策略、价格战,咱们得聊一个大家都没怎么注意的东西。电。对,就是你家每个月交电费的那个电。训练AI模型和运行AI模型都需要巨大的计算能力。计算能力就是成千上万块GPU在跑。这些GPU跑起来的时候,耗电量是惊人的。一个大的AI数据中心,一年用的电够一个小城市用的。所以电费是AI公司最大的成本之一。

美国为什么AI成本降不下来?很大一个原因是美国电贵。而且美国的电网老化了,很多地方动不动就停电拉闸。你想建个数据中心,还得先跟电力公司谈好,人家有没有那么多电给你用。甚至有的地方你得自己建发电厂。这成本能不高吗?深度求索在中国就没有这个问题。中国的工业用电价格比美国便宜一大截,而且中国的电网是全世界最稳的,基本不停电。

电便宜就是打火机便宜

用一个简单的比喻来解释。假设你是做打火机的。电便宜的话,你生产一个打火机的成本就低。电贵的话,成本就高。那么你卖打火机的时候,你就能比对手卖得更便宜。AI也是这个道理。深度求索V4便宜,表面上是因为算法创新,但根子上是因为他们训练的时候每度电花更少的钱。

现在更有意思的事情来了。深度求索不光训练便宜,他们推理也就是运行模型的时候也便宜。运行一次V4模型,消耗的电费只有美国模型的几分之一。这意味着什么?意味着他们可以以极低的价格把模型的调用服务卖到全世界去。这个服务本身输出的是一堆一堆的token。Token就是AI生成的一段文字、一行代码、一个答案。把token通过互联网卖给别人,这不就是出口吗?

以前卖货,以后卖脑力

中国以前出口什么东西?衣服、鞋子、玩具、家具、电子产品。这些都是实物。你得造船、造集装箱、造港口,然后一箱一箱运到美国、欧洲、非洲。物流成本高,时间也长。现在不一样了。深度求索把模型部署在云端,美国人敲一行代码就能调用。token从中国的服务器飞到大洋彼岸的美国公司,速度是光速。这中间没有海关、没有关税、没有货船、没有卡车。只有网线和电。

这就是传说中的新出口风口。以前叫实物贸易,以后叫算力贸易或者token贸易。中国用便宜的电力,加上聪明的算法,训练出好用的模型,然后把模型的智能以token的形式卖给全世界。每一个token都是一个中国制造的“智能零件”。美国公司组装这些智能零件,做出自己的产品和服务。这不就是出口吗?而且这个出口不污染环境,不消耗物理资源,就消耗电。而中国的电,便宜又充足。

美国公司已经开始算账了

美国的中小企业是最敏感的。他们不像大公司那样有钱,每一分钱都要精打细算。以前他们用GPT-5.5或者Opus 4.7,每个月账单好几万美金。现在深度求索V4出来了,同样的任务,价格可能是几千美金甚至几百美金。你让他们怎么选?他们肯定选便宜的。

而且调用中国模型又不违法。美国没有禁止企业使用中国的开源模型。他们直接从深度求索的服务器上调用就行。整个过程就像你在手机上点外卖一样方便。那么问题来了。这些美国公司的钱,就通过购买token的方式,流向了中国。虽然单价很低,但是架不住量大。全世界几百万家公司都在用,每个人每天调用几万次,这个总量就非常可怕了。这就是薄利多销的AI版本。


电变成了一种新型出口资源

以前我们说一个国家的资源是什么?石油、天然气、煤炭、铁矿。这些是硬资源。谁有这些资源谁就能卖钱。中东卖石油发了大财。澳大利亚卖铁矿也过得不错。但是现在电变成了一种新的战略资源。你有便宜的、稳定的、大量的电,你就能训练AI。你有了AI,你就能输出token。你输出了token,你就能赚全世界的钱。

中国恰恰是世界上发电量最大的国家。中国的工业电价又相对便宜。再加上中国的电网稳定性世界第一。这三个条件加在一起,就是天然的比较优势。美国也想搞,但是美国的电价降不下来,电网又老又脆。欧洲更惨,电价是中国的两三倍。日本韩国也没有中国这么大的发电规模。所以说,在电这一点上,中国确实占了很大的便宜。

开源加便宜电等于无敌组合

深度求索开源了自己的模型。

这意味着其他国家的公司也可以下载下来自己跑。但是他们自己跑需要自己买GPU,自己交电费。算下来未必比直接调用中国的服务便宜。因为中国有规模效应,数据中心超大,电费超低,维护成本也被摊薄了。这就好比你自己在家做一杯咖啡,买咖啡豆、买机器、交水电费,算下来比去楼下便利店买一杯还贵。

所以大多数公司还是会选择直接调用深度求索的API服务。这样一来,中国的电力就通过token的形式实现了二次出口。第一次是用电生产算力,第二次是用算力生产token,第三次是把token卖给外国人。每一度电在中国可能只值几毛钱,但变成token卖到国外后,创造的价值可能是几十块甚至几百块。这就是附加值。

美国政府又开始头疼了

这个新趋势让美国政府非常难受。他们可以限制芯片出口,让你买不到先进的GPU。但是他们没办法限制中国的电力出口。也没办法限制中国的token通过互联网流向全世界。互联网是全球通的,你总不能把海底光缆给掐了吧。你掐了光缆,你自己的企业也没法跟欧洲做生意了。

所以这是一个监管上的真空地带。美国政府眼睁睁看着中国的AI token源源不断卖到全世界,却找不到一个合法的办法来阻止。加关税?token不是实物,没法加。禁止进口?token可以直接绕过防火墙。唯一能做的就是继续补贴自己的AI企业,让他们降价。但是刚才说了,他们的电价摆在那里,再怎么补贴也补不过中国的成本优势。


下一个风口就是卖智能

如果你是一个创业者,你可能注意到了这里面的巨大机会。围绕深度求索V4这个开源模型,可以做的事情太多了。你可以帮国外的公司部署这个模型,收服务费。你可以基于这个模型做各种垂直行业的应用,比如帮美国的律所做法律文书自动生成,帮美国的医院做病历分析,帮美国的电商做客服机器人。

所有这些业务的本质都是一样的。你消耗中国的电,生成token,卖给外国人,赚外汇。这就是中国出口的新形态。以前叫made in China,以后叫generated in China。以前是珠三角的工厂里生产出来的玩具和手机,以后是杭州的数据中心里生成出来的代码和文案。这个转变正在发生,而大多数人还没意识到。

深度求索打了个样

深度求索V4这次的操作,相当于给所有的中国AI公司打了个样。他们证明了,不需要最先进的GPU,不需要最多的钱,只需要聪明的算法、便宜的电力、和开源的诚意,就能做出让全世界都想用的产品。这个模式是可复制的。未来会有更多的中国AI实验室走这条路。他们会做出更多细分领域的优秀模型,然后开源出去,卖token赚全世界的钱。

到时候,中国出口的就不只是深度求索这一家公司的token了。可能有十家、二十家、五十家中国AI公司的各种专用token一起出海。做医疗的、做法律的、做教育的、做金融的、做编程的,各显神通。这些token汇聚在一起,就是一个巨大的出口产业。用电去换外汇,用算法去赢市场,这个剧本听着就比卖衣服高级多了。


别笑,这件事真的在发生

你可能觉得我吹得太夸张了。但你去看数据。深度求索V4发布之后,海外调用量的增长速度非常猛。很多美国、欧洲、东南亚的开发者已经开始在他们的项目里集成V4了。为什么?因为便宜,好用,文档写得好,社区活跃。这些都是实实在在的吸引力。开发者是最实际的一群人,谁便宜用谁,谁好用用谁,不问政治不看国籍。

当这些开发者习惯了中国的AI生态,用惯了中国的模型和工具,那未来五年十年,全球AI的标准就有可能由中国来定义。这不是危言耸听。开源的力量是滚雪球式的。用的人越多,改进越快,改进越快,用的人更多。深度求索这个雪球已经滚起来了。而推着这个雪球往前滚的动力,是一个很多人都没注意到的东西:AI尽头是能源,中国的便宜电力。

中国便宜的电力在西部,西部电力苦于输出,如果借助就地建设的算力中心,通过互联网token出海,无疑是下一个大风口。

谁是正宗的Token出海大A概念股?

首都在线:它是A股唯一把这个模式写进官方新闻稿的。
他们有个口号叫"海外接入、国内计算、庆阳汇聚"。啥意思?大白话翻译:老外在海外发请求,中国的服务器在庆阳算,结果传回去。服务器没动,电没动,钱进来了。这不就是你要的那个模式吗?

具体咋干的?首都在线在东南亚、欧洲、北美都部署了海外接入节点,然后通过专线连回中国,最终汇聚到甘肃庆阳的数据中心。他们服务的客户是两类人:出海的中国游戏公司和跨境电商。这两类人要把产品卖到国外去,用首都在线的服务,相当于用的是"中国产的token"。

而且人家有数据撑腰:2024年海外收入占比稳步增长,海外市场毛利已经转正了。这不是讲故事,是已经赚钱了。

拓维信息和华胜天成属于"华为昇腾线",算半个——因为他们卖的是国产算力的"生产线",不是直接卖token。但如果DeepSeek这类国产大模型持续爆发,他们也能跟着吃肉。

航锦科技、科华数据、软通动力——这些是给算力中心供设备、做配套的,不是自己卖token,属于"卖铲子的"不是"挖矿的"。