CoreWeave全球首个毫秒级零费用AI对象存储系统


CoreWeave推出AI对象存储服务,依托LOTA技术实现全球数据秒级访问、零出口费用、成本直降75%,重塑AI基础设施格局。

2025年10月16日,美股纳斯达克上市的AI云基础设施巨头CoreWeave(中文名:科威云,股票代码CRWV)正式发布了其全新产品——AI对象存储(AI Object Storage)。这是一场针对AI训练与推理工作负载量身定制的存储革命。如果你是搞大模型、做AI训练、或者正在为数据搬运成本头疼的开发者,那今天这条内容,你必须认真看完!

先说重点:这项服务最大的亮点,就是“全球任意地点,数据秒级可达;无论你从哪里读、写、调用,统统没有出口流量费、没有事务请求费、没有隐藏收费”。更夸张的是,它还能把AI工作负载的存储成本直接砍掉75%!你没听错,是四分之三!这在当前动辄PB级、EB级数据训练的时代,简直就是给AI公司发了一张“省钱通行证”。

那它是怎么做到的?答案就藏在一个叫LOTA的技术里——全称是“本地对象传输加速器”(Local Object Transport Accelerator)。听起来有点拗口,但它的作用却极其强悍。简单来说,LOTA就像一个遍布在每一个GPU节点上的“智能快递站”,你一要数据,它马上从最近的缓存里给你送过来,根本不用绕道遥远的数据中心。这种设计彻底打破了传统云存储“数据在哪,计算就得迁到哪”的地理枷锁。

我们再深入一点。传统云服务商比如AWS、Azure、Google Cloud,虽然也有对象存储,但它们的架构最初并不是为AI设计的。

AI训练需要的是高吞吐、低延迟、海量小文件并发读取——而传统存储往往卡在I/O瓶颈、高昂的出口费用、以及复杂的分层管理上。

结果就是,GPU算力明明很强,却经常“饿着肚子等数据”,利用率大打折扣。

而科威云这次直接从底层重构存储逻辑。他们的AI对象存储不仅S3兼容(意味着你现有的代码几乎不用改),还自动根据数据访问频率智能分层:7天内访问的是“热数据”,7-30天的是“温数据”,30天以上没碰的就是“冷数据”。系统自动把它们放到对应成本的存储层,热数据快如闪电,冷数据便宜如白菜。这种动态分层机制,让客户在不牺牲性能的前提下,实现了惊人的成本优化。

更牛的是性能表现。官方数据显示,单个GPU就能跑出高达7GB/s的吞吐量!而且这个性能不是固定的,是随着你的训练规模线性扩展的。你用1000个GPU,它就给你1000倍的吞吐能力;你扩到10万个GPU,它照样稳如泰山。这背后靠的是科威云自建的全球光纤骨干网——他们目前在美国有28个运营区域,在英国2个,欧洲大陆还有挪威、瑞典、西班牙共3个节点,全部用高速暗光纤直连,延迟极低。

说到连接方式,科威云也不含糊:400Gbps超高速端口、私有互联、直接云对等连接(direct cloud peering)一应俱全。这意味着无论你的GPU集群部署在哪里,数据都能像在本地一样飞速流转。

而且,这项服务还支持多云!你存在AWS或Google Cloud上的数据集,也能通过LOTA加速,获得和科威云原生存储一样的性能体验。官方还透露,到2026年初,LOTA技术将扩展到其他公有云和本地数据中心,真正实现“无边界数据访问”。

安全性和可靠性方面,科威云也下了重注。他们承诺99.9%的服务可用性,并实现了“十一个9”的数据持久性(也就是99.999999999%),这意味着你存进去的数据几乎不可能丢。所有数据在传输中和静态存储时都全程加密,符合最严苛的企业安全标准。

说到这里,你可能会问:科威云是谁?凭什么敢挑战AWS这些巨头?这就得聊聊他们的背景了。

科威云由Peter Salanki等人联合创立,而Salanki正是公司的联合创始人兼首席技术官。他在分布式系统和高性能计算领域深耕多年,团队核心成员不少来自NVIDIA、Meta和传统超算中心。他们从一开始就瞄准AI这个垂直赛道,不做通用云,只做AI专用云,因此在GPU调度、网络优化、存储架构上都极度聚焦。

事实上,这次AI对象存储的发布,并不是孤立事件,而是科威云整体战略的关键一环。

在此之前,他们已经推出了ServerlessRL——全球首个完全托管的强化学习平台,让开发者无需操心底层基础设施,直接开训智能体。

同时,他们还接连收购了OpenPipe(AI模型部署工具)、Weights & Biases(实验追踪与模型管理平台),并即将完成对Monolith AI的收购。

这一系列动作清晰地表明:科威云正在构建一个从训练、调优、部署到存储的全栈AI基础设施生态。

更重磅的是,他们和NVIDIA的关系极为紧密。

就在不久前,科威云宣布为初创公司Poolside提供超大规模的NVIDIA GB300 NVL72系统集群——这个集群包含超过40,000块GPU!Poolside的目标是打造通用人工智能(AGI)和企业级AI智能体,而科威云将成为其背后的核心算力引擎。

不仅如此,科威云还将作为“锚定租户”和运营合作伙伴,深度参与Poolside在德克萨斯州西部建设的2GW AI园区“Project Horizon”首期250MW项目,并保留未来再扩展500MW的选项。这已经不是简单的云服务合作,而是共同定义下一代AI基础设施的格局。

当然,挑战者从来不少。在AI云赛道上,除了AWS、Azure、Google Cloud这些传统超大规模云厂商外,还有像Nebius这样的新兴“新云”(Neo-cloud)公司,以及RunPod、Lambda Labs、DigitalOcean、Vultr等中型GPU云服务商。

但科威云的独特优势在于:它不做“大而全”,而是“专而精”。它的整个技术栈——从网络、存储到调度器——都是围绕AI工作负载重新设计的,而不是在通用云上打补丁。

回到LOTA技术本身,它的实现细节也相当精巧。

每个GPU节点上都部署了一个LOTA代理,它既是缓存节点,又是智能网关。当你的程序发起一个S3请求时,只需把endpoint从原来的cwobject.com换成cwlota.com,其他代码完全不用动。LOTA会先检查本地缓存有没有你要的数据,有就直接返回;没有,就从后端拉取,同时一边传给你的程序,一边存进缓存。这种“双流并行”机制,让高频访问的数据越用越快,彻底解决“冷启动”问题。

而且这个缓存不是孤立的,而是分布在整个Kubernetes集群的所有GPU节点上,形成一个巨大的分布式缓存池。这意味着即使某个节点宕机,数据也不会丢失,其他节点照样能提供服务。这种架构在大规模分布式训练中尤为重要——想想看,你正在训练一个万亿参数模型,突然因为存储延迟卡住几小时,损失的可不只是电费,还有宝贵的研发时间。

最后,我们来看市场反应。截至2025年10月16日,科威云(CRWV)股价收于141.74美元,而它今年3月IPO时的发行价仅为40美元。短短七个月,股价涨了两倍多,资本市场用真金白银投了信任票。这背后,正是市场对其技术壁垒和AI专用云定位的高度认可。

总结一下:科威云的AI对象存储,不是一次简单的功能更新,而是一次对AI基础设施范式的重新定义。它用LOTA技术打破了数据地理限制,用零费用模式颠覆了传统计费逻辑,用自动分层实现了极致成本优化,用全球光纤网络保障了超高性能。对于正在被存储成本和数据延迟拖累的AI团队来说,这无疑是一剂强心针。