算力就是命!AI创业公司生死线全靠这张GPU牌
一个特别硬核但又极其关键的话题——AI基础设施。最近,Nebius($NBIS)联合创始人兼首席商务官罗曼·切尔宁(Roman Chernin),和Cloudflare产品管理副总裁丽塔·科兹洛夫(Rita Kozlov)进行了一场深度对谈,内容信息量爆炸,直接揭示了当前AI创业生态中最真实的生存法则。
如果你正在做AI产品、考虑创业,或者只是好奇这波AI浪潮到底靠什么在推动,那这篇内容你一定要看完。因为这不仅仅是技术讨论,更是关于“怎么活下去”“怎么跑赢别人”的实战指南。
首先,我们得明白一个残酷现实:GPU,现在比黄金还抢手。
罗曼在对话中提到,整个行业已经很久没看到像现在这样疯狂抢GPU的局面了——上一次还是2022年“Hopper芯片荒”的时候。那时候,很多初创公司为了拿到算力,不惜签下三四年期的长期合约,哪怕连自己公司能不能活到那时候都不知道。听起来是不是很疯狂?但这就是现实。
而有意思的是,这一次的GPU短缺,和2022年还不太一样。2022年是因为大家都在训练大模型,需要海量算力;但2025年,短缺的根源变了——不是模型本身,而是建在大模型之上的应用爆发了。
换句话说,基础模型已经成了“水电煤”,人人都能用。这直接引爆了全民AI创作潮。以前只有专业工程师才能搞的东西,现在普通开发者、甚至大学生都能做出惊艳的产品。罗曼说:“我们终于看到这些创意真正落地成产品了。”这句话背后,是数以万计的AI应用正在全球涌现,而每一个都需要GPU来跑。
但问题来了:GPU就那么多,需求却指数级增长。结果就是——算力成了稀缺资源,谁先拿到,谁就有先发优势。
接下来,我们聊聊AI创业公司是怎么“长大”的。
罗曼指出,几乎所有早期AI创业团队,一开始都会用闭源的前沿大模型(比如GPT-4、Claude、Gemini)来快速验证产品市场匹配度(PMF)。这很聪明,因为省去了自己训练模型的天价成本和时间。但一旦产品火了、用户涨了,问题就来了:账单爆炸。
想象一下,你每天有100万用户调用你的AI服务,每次调用都要付费给大模型API,那成本根本扛不住。所以,到了成长阶段,这些公司必须转型——要么自己微调开源模型,要么优化推理流程,要么重构整个技术栈。核心目标就一个:别把钱全烧在算力上。
这时候,像Nebius这样的基础设施公司就派上用场了。他们不卖模型,也不做应用,而是提供底层的高性能计算“骨架”。让创业公司能在不牺牲性能的前提下,把单位算力成本压到最低。罗曼说得特别实在:“大多数公司根本不是基础设施提供商,他们需要像我们这样的伙伴,帮他们降低规模化执行的门槛。”
而Cloudflare这边,则负责另一端——用户触达。丽塔提到,他们的全球边缘网络能把AI响应延迟压到最低,尤其对聊天机器人、实时图像生成这类交互式应用至关重要。一个AI产品再强,如果用户点完按钮要等五秒才出结果,那体验就崩了。所以,算力+网络,缺一不可。
说到这儿,不得不提一个经典案例:Higgsfield。
这是一家做AI视频生成的初创公司,今年年初突然在TikTok和X(原Twitter)上爆火。短短五个月,用户冲到1100万!但问题也来了:他们既没有Meta那种品牌号召力,也没有Google那种GPU预算。怎么办?
答案是:极致优化。
他们开发了预测算法,提前预判用户高峰,在哪些区域、什么时间段会爆量,然后动态预分配算力。比如,美国东部时间晚上8点是流量高峰,那就提前把GPU资源调度过去。同时,他们对免费用户做了智能限流——不是一刀切封禁,而是根据行为模式动态调整,既保证核心用户体验,又控制成本。
更狠的是,他们优先服务高收入地区的用户。比如欧美用户付费意愿强,就优先保障他们的服务质量和响应速度;而低ARPU(每用户平均收入)地区,则适当降低资源配比。这不是“歧视”,而是商业现实。
罗曼总结得特别到位:“这些已经是标准的生产级问题了。AI创业早就不是‘写个prompt就行’的时代,你必须搭建完整的数据管道、做成本预测、优化推理链路,甚至要懂运维和调度。”
再来看硬件层面——GPU的迭代速度,快得让人喘不过气。
最近NVIDIA发布了新一代Blackwell芯片,性能炸裂。但罗曼提醒我们:别以为新芯片一出,旧的就淘汰了。实际上,Ampere架构(比如A100)至今仍在大量使用,因为不是所有场景都需要顶级算力。比如做文本分类、简单问答,用A100完全够用,还便宜。
而Blackwell的意义在于,它打开了新可能性——比如超大规模多模态推理、高分辨率视频生成、复杂Agent系统。这些任务在以前要么跑不动,要么成本高到离谱。现在,有了Blackwell,终于可以“合理性能”地实现了。
所以,GPU的演进不是替代,而是扩展。每一代芯片都在拓展AI能做的事情的边界。对创业者来说,这意味着:你可以根据业务阶段,灵活选择算力组合,而不是盲目追新。
最后,我们聊聊企业端的变化。
虽然Nebius主要服务AI应用公司,但罗曼和丽塔都注意到一个趋势:大企业也开始加速AI落地了。过去一年,越来越多传统企业开始内部部署AI系统,原因有两个:一是行业集成标准逐渐成熟(比如OpenAI的API、LangChain框架),二是内部业务部门对AI的需求越来越强——销售要智能客服,市场要内容生成,HR要简历筛选。
丽塔特别提到,Cloudflare看到企业客户对边缘AI的需求激增。他们不再满足于“云端跑模型”,而是希望在靠近用户的地方做推理,以降低延迟、提升隐私合规性。这反过来又推动了基础设施的分布式演进。
而罗曼则强调了一个核心观点:在今天的AI市场,能不能规模化,往往不取决于你的模型多牛,而取决于你的基础设施效率有多高。
“算力获取只是第一步,算力效率才是决胜关键。”他说,“很多公司死不是因为想法不好,而是因为算力成本失控,根本撑不到盈利那天。”
所以,未来的赢家,一定是那些既懂AI产品,又懂基础设施优化的团队。他们知道什么时候用闭源模型,什么时候切到自研;知道如何调度GPU资源,如何设计数据流;也知道如何和Nebius、Cloudflare这样的伙伴深度协作,把每一分算力都用在刀刃上。
总结一下这场对话的精髓:
第一,GPU短缺回来了,但这次是应用层驱动的,意味着AI真正进入“全民创作”阶段;
第二,AI创业公司必须在成长期完成从“调用API”到“自主优化”的转型,否则会被成本压垮;
第三,成功案例如Higgsfield证明,精细化运营+智能调度=低成本高增长;
第四,新GPU不是替代旧芯片,而是打开新场景,创业者要按需选择;
第五,企业AI正在加速,基础设施必须兼顾性能、成本与全球部署能力。
在这个算力即权力的时代,基础设施不再是后台支撑,而是前台竞争力。谁能把算力用得更聪明、更高效、更便宜,谁就能在AI浪潮中活下来、跑起来、赢下来。
别再只盯着模型参数了,真正的战场,在GPU调度器里,在数据管道中,在每一毫秒的延迟优化上。这才是AI创业的下半场——硬核、残酷,但也充满机会。
作者背景:
罗曼·切尔宁(Roman Chernin)是Nebius($NBIS)联合创始人兼首席商务官。Nebius是一家专注于为AI应用提供高性能、可扩展计算基础设施的科技公司,致力于帮助创业公司和企业高效部署AI工作负载。此前,罗曼在云计算和企业软件领域拥有十余年经验,深度参与过多个从0到1的技术商业化项目。
丽塔·科兹洛夫(Rita Kozlov)现任Cloudflare产品管理副总裁,负责领导AI与边缘计算相关产品战略。Cloudflare作为全球领先的网络基础设施公司,其边缘网络覆盖100多个国家,为数百万网站和应用提供安全、快速的连接服务。丽塔长期关注开发者体验与AI基础设施融合,推动AI能力向全球边缘节点下沉。