博通站稳万亿美元市值背后:AI定制芯片需求狂奔
在AI大模型需求驱动下,不仅是GPU芯片厂商,围绕AI定制化芯片开展服务的厂商也正迎来业绩快速上涨和资本市场追捧。
近日,博通(Broadcom)发布财报显示,第四财季AI芯片相关业务收入同比增长超过2倍,相关需求仍在强劲释放。财报和业绩交流一结束,博通当日迎来股价大涨,自此首次站上万亿美元市值位置。
与博通有类似业务模式的Marvell呈相似表现,博通股票上涨当日,Marvell股价也实现了快速上行。
虽然同属于AI芯片,但定制化AI芯片与通用GPU计算芯片不同,前者更结合场景需求差异化定义,后者则更具通用、普适性。在英伟达持续高喊旗下GPU芯片组合“买得越多、省得越多”但基准价格水涨船高时,如谷歌、微软等一众云服务巨头开始思索结合自身业务研发针对性AI计算芯片。这类芯片不需要过于强大的计算能力,但更符合公司具体业务需求且成本更低。
由于云服务厂商自身不具备深厚的芯片设计能力,博通和Marvell就是能够根据这些厂商提出的需求针对性帮助开发设计芯片的产业角色。不止于此,英伟达的核心护城河是GPU硬件+CUDA软件生态+NV Link连接生态,后者的核心产品之一是网络交换机,这也是博通和Marvell均有涉足的领域,在“能力三角”中已经有两角的情况下,不难理解这两家巨头为何受到热捧。
此前英伟达一度承认过有开发ASIC定制化芯片的想法,但近期并没有更多动态释放,在需求端的指引下,AI芯片大战正走向新的跑道。
图片来源:视觉中国
定制需求旺盛
当地时间12月12日,博通发布最新一期第四财季财报显示,期内实现营业收入516亿美元,同比增长44%,其中基础设施软件实现收入215亿美元,主要得益于对VMware的业务整合,半导体业务实现收入301亿美元。
博通总裁兼CEO Hock Tan(陈福阳)指出,得益于公司旗下AI XPU类芯片和以太网产品组合的需求支撑,公司AI相关业务收入同比实现增长220%至122亿美元。
在业绩交流会上,Hock Tan还介绍了未来三年在AI芯片领域公司的发展空间。他表示,目前公司有三家超大规模客户已经制定了多代AI XPU路线图,预计到2027年,每个客户在单一网络架构中将部署100万个XPU集群,预估这三家客户的需求市场总量约有600~900亿美元,公司将抢占其中重要份额。
此外,公司还在为两家新的超大规模客户设计开发相应下一代AI XPU产品,有望在2027年之前转化为收入来源。公司3nm XPU将在2025年下半年开始大规模出货。
业界分析,博通ASIC芯片的大客户包括谷歌、Meta;近期市场消息显示,苹果也有计划开发AI服务器芯片,合作方很有可能也是博通。
受这些消息影响,博通当日收盘股价大涨24.43%收报224.8美元/股,市值首次站上1.05万亿美元。
与博通业务模型类似的Marvell也在当日受到资本市场追捧,收盘上涨10.79%至120.77美元/股。
12月初,Marvell已经发布了2025财年第三财季财报,期内公司实现营业收入15.16亿美元,同比增长7%、环比增长19%。其中数据中心相关收入同比增长98%、环比增长25%,这是公司旗下所有业务中唯一实现同比收入增长的业务类型。
Marvell总裁兼CEO Matt Murphy指出,这主要来自于AI定制化芯片需求支撑,此外还有云服务客户对于互联产品的持续性需求。预计这种趋势将延续到2026财年(约指2025公历年份)。
非数据中心业务方面,汽车/工业、消费者、通信基础设施相关业务依然呈现同比较大程度下滑,分别下降22%、43%、73%,不过这三大业务的收入环比开始上涨9%、9%、12%,公司指出呈现复苏迹象。
仅在12月,Marvell先是官宣与亚马逊云(AWS)扩大战略合作,宣布一项为期五年、跨代际产品的合作计划,涵盖Marvell旗下定制AI芯片、DSP、数据中心互联光模块、以太网交换机解决方案等多种类型,以支持AWS推进在数据中心计算、网络和存储等方面强化产品能力。不久还宣布推出业界首款3nm高速(1.6Tbps)互联平台。
博通和Marvell有类似的产业定位,并不聚焦于GPU这类通用的大规模并行计算芯片设计研发,而是更专注于帮助有芯片定制化需求的主流云服务厂商进行产品设计。这也是ASIC芯片相关业绩高速成长的原因。
此外,二者也着重于布局AI相关网络传输业务,如以太网交换机、硅光芯片技术等,以此完善AI芯片在“运力”方面的能力闭环。在对抗英伟达NV Link重要组成的IB交换机之路上,两家公司也是以太网交换机路线下“超以太网联盟(UEC)”的主要成员。
ASIC定制芯片(算力)叠加高速传输能力(运力),在为单一大厂提供芯片业务赋能时,CUDA生态的重要性就没有那么高。也让博通和Marvell在英伟达之外开辟了新的AI芯片战场。
AI推理远景
不止在训练层面,业界观点认为,ASIC芯片也更适用于针对特定场景的AI推理能力落地。这恰恰是AI大模型商业化过程中更为庞大的市场需求所在。
在此前一次业绩交流过程中,英伟达创始人兼CEO黄仁勋就曾表示,AI推理需求正在快速上涨。
一名云服务行业资深从业者对21世纪经济报道记者表示,有行业研究表明,未来在AI相关的成本开销上,AI市场中90%的规模都会在推理侧。所以AI推理未来是不容忽视的大市场。“尤其我们关注到,国内不少厂商是基于开源模型进行微调和优化训练,因此我认为未来无论是成本开销、技术复杂性上,AI推理都是需要重视的市场。”
TrendForce集邦咨询资深研究副总经理郭祚荣则向21世纪经济报道记者分析,AI推理市场空间很大,未来甚至会超过AI训练市场规模。即便目前有较多厂商聚焦面对AI推理市场推出AI芯片产品,但在未来2~3年内还不至于出现供过于求的现状。
“AI训练的参数量很大,且不是一个固定形态。这部分市场需求主要在GPU芯片,是英伟达的强项,他们会根据用户的程式设计符合最终用途的产品。”他进一步指出,但在AI推理市场,反而ASIC芯片更具优势,因为已经将设计固化,可以根据既有训练好的资料快速分析认证,且其更为省电。“英伟达在AI推理芯片领域并没有形成绝对壁垒,四大云服务厂商都有自己的专用ASIC芯片,用于各自细分需求,例如Meta聚焦社群算法调优、谷歌强化搜索引擎能力等。”
郭祚荣还指出,也因为ASIC芯片无法完全适应AI大规模训练的需求,因此美系云服务大厂依然需要与英伟达达成稳固合作关系。
至于此前市场传出英伟达也有进入ASIC芯片的消息,他认为,这一消息仅昙花一现,后续英伟达方面没有进一步阐释,预计其并不会轻易做出该选择,但进展值得持续关注。
终端机会待何时?
在AI计算芯片需求持续渗透下,端侧应用何时能真正牵引需求落地,由此点燃芯片市场下一个AI需求周期的话题也备受关注。
虽然在今年上半年,被称为行业风向标的存储芯片市场迎来价格上行的新趋势,但好景不长,由于AI大模型尚未在端侧形成杀手级应用,多家手机厂商业务负责人也坦陈目前阶段的AI应用还无法成为换机核心动力,全球手机、PC市场需求虽有所复苏但整体相对温和,在需求不够旺盛的前提下,以存储为代表的芯片价格转向回调。
进入下半年,存储芯片市场涨势不再,甚至渠道层面出现过急于降价出货的现象。
根据第三方机构闪存市场的统计,三季度全球存储市场规模延续二季度的增长趋势,季度内全球存储市场规模达448.71亿美元,但增长幅度已经开始缩小,环比增幅由二季度的22.1%缩小至8.3%。同时,面对来自智能手机市场需求的相对疲软、PC市场库存的持续调整,以及在这些领域供应竞争加剧,使得四季度的存储市场存在一定不确定性,尤其表现在四季度的NAND Flash/DRAM整体价格或将由涨转跌。
慧荣科技CAS业务群资深副总段喜亭分析,今年以来,NAND闪存市场面临冰火两重天的行情。目前“AI的风”吹到了数据中心和机房,因为要先从数据中心把大语言模型(LLM)训练好,之后才能更好为终端消费者所使用。
这带动企业级存储需求非常强劲,包括AI服务器和通用服务器均处于增长态势,由此令大容量企业级SSD硬盘需求增长。
“我们在企业级数据中心是后进者,花了很长时间调试产品,已经送样给客户并检测。预计在2025年上半年将产品量产,相信业务会迎来爆发式增长。”他介绍道。
他预计,数据中心引发的NAND相关需求热度将至少延续到2025年上半年。但消费级终端市场的需求相对温和,导致部分存储模组厂商为了避免库存压力而杀价竞争,因此这类存储细分市场价格相对疲软。
“很多AI厂商和伙伴常常跟我们讨论应用到边缘端的进展,但我认为风是从‘头’往‘下’吹的,要沉住气。”他续称,目前云端对存储容量有旺盛需求,AI服务器对数据存储的容量是2~4倍速度在上升;但未来应用铺开后,边缘端的存储成长需求将比云端成长更为快速。