一韩国AI芯片新厂要做对抗英伟达的全球第一


韩国利贝利昂CEO朴成铉坦言与英伟达差距巨大,聚焦特定推理赛道,押注开源生态,以务实策略突围AI芯片红海。

在AI芯片的战场上,韩国本土企业正试图撕开英伟达(NVIDIA)看似牢不可破的垄断铁幕。近日,韩国AI芯片明星企业“利贝利昂”(Rebellions)的创始人兼首席执行官朴成铉(Park Sung-hyun)接受了《韩国经济新闻》的独家专访,坦率承认当前与英伟达之间存在巨大差距,并首次系统性地阐述了利贝利昂的现实定位、技术路线与未来野心。这场访谈不仅打破了外界对“国产AI芯片=英伟达替代者”的浪漫幻想,更揭示了一个清醒、务实却充满战略定力的韩国科技新势力的真实面貌。

朴成铉是谁?他是韩国半导体界近年来最耀眼的创业者之一。曾任职于三星电子,在AI与高性能计算领域深耕多年,2020年创立利贝利昂,目标直指AI推理芯片市场。短短几年,公司估值飙升,被韩国政府与资本视为“国家AI芯片战略”的关键一环。

然而,面对全球市值超6000万亿韩元(约合4.5万亿美元)的英伟达帝国,朴成铉没有选择高喊口号,反而在本次采访中直言:“如果说利贝利昂现在能击败英伟达的通用性,那是在说谎。”

他强调,英伟达不仅统治AI训练市场,还在推理、高性能计算(HPC)、游戏等多个领域全面领先。利贝利昂的现实策略,不是全面开战,而是“在推理市场中,再细分出一个特定赛道,然后做到极致”。他坦言,公司当前的真正目标,是在“NPU阵营”(即非英伟达架构的AI专用芯片)中做到全球第一,并努力追赶谷歌TPU约80%的水平。

这一表态,实际上是对韩国国内过度炒作“国产芯片超越英伟达”舆论的一次纠偏。朴成铉指出,从公司成立之初,媒体和公众就习惯用“比英伟达A好、比B强”来评价本土AI芯片,这种框架不断放大,甚至催生了大量不实宣传。“有人必须站出来说实话,”他说,“在上百种真实应用场景的基准测试中,我们可能只在两三个特定测试里领先,而且还是用无法商用的模型跑出来的数据——这不能代表真实战斗力。”

那么,利贝利昂究竟瞄准了哪个“特定赛道”?
答案是:大语言模型(LLM)与多模态AI的推理场景,尤其是参数规模达1000亿(100B)级别的模型。

朴成铉透露,公司最新发布的“利贝Quad”(Rebel Quad)芯片正是为此而生。这款芯片不仅是韩国首款真正意义上的“大芯片”(Big Chip),更在技术架构上展现出独特思路。

所谓“大芯片”,并非单纯指物理尺寸,而是指其采用“芯粒”(Chiplet)设计——将4个AI计算单元集成在同一基板上,并搭载4颗第五代高带宽内存(HBM3E)。更重要的是,它支持“W8A16”精度配置,即权重使用8位整数(INT8),激活值使用16位浮点(FP16)。这一配置意味着模型几乎未经过激进的量化压缩,能保持较高的推理精度与智能水平。相比之下,有些厂商通过将参数压缩到2位或4位来宣称“支持70B模型”,但实际效果大打折扣。

此外,利贝Quad可一次性处理长达12.8万个token的输入,相当于整篇学术论文直接喂给AI,无需分段。朴成铉自豪地表示:“单颗芯片就能做到这一点,这才是真正的‘大芯片’。”在性能参数上,该芯片已接近英伟达H200,甚至超越A100,相当于将8到9颗三星Exynos应用处理器的算力整合于一身。

当然,芯粒架构也引发市场担忧:多个芯片互联是否会导致功耗飙升、发热严重、性能损耗?对此,朴成铉回应称,虽然芯粒确实会增加I/O接口和功耗,但相比用传统导线连接4颗独立芯片,芯粒方案反而能节省高达97.5%(即40分之1)的互联功耗。更重要的是,芯粒带来无与伦比的“可扩展性”——未来可轻松升级为8芯的“利贝Octa”,甚至集成专用I/O芯片,为下一代AI架构预留空间。

目前,利贝Quad的单芯片功耗在600至1000瓦之间,团队正通过软硬件协同优化,目标将其压至500–600瓦。虽然仍高于理想值,但朴成铉认为“已通过预选赛”,后续优化至少还需一年时间。至于发热问题,他指出英伟达H200功耗早已突破1000瓦,其之所以不“熔化”,全靠顶级散热与电路设计。利贝利昂虽不及,但差距可控。

真正决定AI芯片成败的,往往不是硬件,而是软件生态。面对“利贝利昂软件栈是否成熟”的质疑,朴成铉毫不回避:“英伟达的软件之强,说到嘴都酸。”但他认为,行业正迎来“第二个Linux时刻”——就像当年开源Linux颠覆IBM封闭的Unix系统一样,如今以PyTorch、TensorFlow、vLLM为代表的开源AI框架,正在挑战英伟达CUDA生态的垄断地位。

他特别提到,Meta(脸书母公司)已在其新建数据中心全面采用以太网而非英伟达NVLink进行芯片互联,并大力推动PyTorch生态。这标志着“去英伟达化”趋势正在加速。利贝利昂已加入PyTorch基金会,成为韩国唯一成员,并全力开发基于开源框架的前端编译器,希望打造不依赖CUDA的国产AI开发环境。

至于决定芯片利用率的后端编译器,朴成铉承认这是高难度领域,公司已有70–80名工程师专注攻坚。他透露,竞争对手Groq在此领域表现优异,而英伟达自身也未必在后端做到极致——因其重心更多放在硬件规模扩张上。利贝利昂选择优先押注“生态变革”,而非在细节上死磕1%的性能提升。

值得注意的是,AI芯片的终极战场已从单芯片转向“机架级”(Rack-scale)性能。朴成铉强调,未来数据中心就是“AI token生成工厂”,衡量标准是整个机架每秒能产出多少token。为此,利贝利昂与全球网络芯片巨头“美满电子”(Marvell)达成深度合作,不仅采用其定制交换芯片,还将联合开发机架级CPU与互联方案。初步测试显示,引入美满方案后,系统整体计算效率提升近4倍。

目前,利贝Quad已向美国某大型科技公司交付工程样品。初步反馈显示,在运行4050亿参数模型时,8张利贝卡在同等功耗下,能效比英伟达H200高出约2.3倍。尽管测试环境有限,且服务器尚未完全优化,但这一结果已证明其“可替代性”潜力。朴成铉透露,未来将推出专为利贝Quad优化的服务器平台,进一步释放性能。

总结来看,朴成铉的访谈传递出一个清晰信号:利贝利昂不做“英伟达杀手”,而要做“特定赛道的冠军”。它承认差距,但不放弃追赶;它拥抱开源,押注生态变革;它聚焦推理,深耕多模态与大模型场景。

作者背景:本文基于《韩国经济新闻》记者강해령(姜海玲)对利贝利昂CEO朴成铉的深度专访整理而成。姜海玲长期追踪韩国半导体与AI产业,以专业、犀利的产业洞察著称。