NVIDIA 最新财报(FY2Q24)显示,资料中心业务达 103.2 亿美元,季成长率 141%,年成长率更高达 171%,且 NVIDIA 看好後续成长力道。TrendForce 认为,NVIDIA 高营收成长动力来自资料中心 AI 伺服器解决方案,主力产品有 AI 加速晶片 GPU、AI 伺服器参考架构 HGX 等,均为大型资料中心的 AI 基础设施。
TrendForce预期,NVIDIA将进一步整合软硬体资源,更细致将高阶及中低阶GPU AI加速晶片,与各ODM或OEM绑定合作软硬体系统认证模式。除了加速CSP云端AI伺服器基础设施布建,也和VMware等合作Private AI Foundation等方案,将触角延伸至边缘企业AI伺服器市场,以支撑今明两年资料中心业务稳定成长。
Cloud AI强劲需求驱动,NVIDIA资料中心业务占比超过76%
NVIDIA近年积极布局资料中心业务,FY4Q22资料中心业务营收约占42.7%,尚落後Gaming业务营收约2个百分点,FY1Q23後正式超越Gaming业务,占比逾45%。今年起各大CSP大举投资ChatBOT及公有云各种AI服务基础设施後,NVIDIA更直接受惠,FY2Q24资料中心业务营收占比一举突破76%。
NVIDIA将分攻云端及边缘资料中心AI应用市场
TrendForce观察,预估NVIDIA高阶GPU产品销售策略,将於下半年後转变,原高阶AI伺服器主打搭载A100及H100,市场需求大好下,改成主攻售价更高的H100,才能有效刺激资料中心营收向上。
中阶GPU方面,以近期L40s为主打方案,有几个策略意义。首先,高阶H100系列受限於CoWoS、HBM等产能有限,L40s搭配GDDR记忆体,不须CoWoS封装,可加速导入中阶AI伺服器市场,补足A100 PCIe介面对企业客户需求缺口。
其次,L40s也主攻企业客户,不需使用如ChatGPT庞大的参数模型,主攻较小型化(约数十billion至百billion参数量以下)各专业领域AI Training应用,亦针对边缘AI Inference或影像分析等使用。最後,中国客户因地缘政治问题,导致高阶GPU H系列供应受阻风险,可用L40s补足。低阶GPU系列以L4或T4系列为主打,边缘AI伺服器即时AI推论或影像分析使用,并更强调较低价、高C/P值产品特性。
HGX及MGX等AI伺服器参考架构是NVIDIA下半年主攻AI方案的利器
TrendForce观察,近期NVIDIA除对核心AI晶片GPU更细致化定位,也积极主推HGX及MGX等方案,这并不是伺服器产业链首见作法,但NVIDIA有机会稳固领先利基。NVIDIA藉高度整合GPU加上CUDA建立完整A I生态系,处於绝对领先位置,故对既有伺服器供应链有较强议价能力,要求ODM如英业达、广达、工业富联、纬创、纬颖等,或品牌业者Dell、Supermicro、技嘉等,依NVIDIA HGX或MGX参考设计,且需经NVIDIA该AI伺服器参考架构的软硬体认证。NVIDIA可整合兜售Arm CPU Grace及NPU或AI Cloud Foundation等软硬体解决方案。
值得注意的是,对ODM或OEM而言,预期NVIDIA今明两年云端服务业者AI伺服器主力市场将大有斩获,有利拉抬整体AI伺服器出货量及营收成长,但随着NVIDIA策略性导入HGX或MGX等标准化AI伺服器架构,也使ODM等业者将因AI伺服器核心产品架构较趋同质化使彼此争取CSPs等订单竞争态势更白热化。观察大型CSPs如Google、AWS有扩大导入自研ASIC AI加速晶片趋势,亦可能侵蚀部分NVIDIA GPU市场,为NVIDIA持续推动不同定位GPU产品及整体方案,将AI业务积极拓展至Tier 2资料中心如CoreWeave等及边缘企业客户的主因之一。
(首图来源:NVIDIA)