来源:集邦咨询
trendforce集邦咨询:预估2024年北美四大云端服务业者对高端ai服务器需求量将逾六成
根据trendforce集邦咨询最新预估,以2024年全球主要云端服务业者(csp)对高端ai 服务器(包含搭载nvidia、amd或其他高端asic芯片等)需求量观察,预估美系四大csp业者包括microsoft、google、aws、meta各家占全球需求比重分别达20.2%、16.6%、16%及10.8%,合计将超过6成,居于全球领先位置。其中,又以搭载nvidia gpu的ai 服务器机种占大宗。
受国际形势变化影响,nvidia后续发展仍有挑战
nvidia近期整体营收来源以数据中心业务为关键,主因其gpu服务器占整体ai市场比重高达6~7成,只是后续仍须留意三大状况,可能使nvidia发展受限。其一,受国际形势变化影响,中国将更致力于ai芯片自主化。而nvidia推出的h20等中国特规方案,性价比可能不及既有的h100或h800等,中国客户采用度可能较先前保守,进一步影响nvidia市占率。
其二,在具规模及成本考量下,美系大型csp业者除google、aws外,microsoft、meta等亦有逐年扩大采自研asic趋势。其三,来自amd的同业竞争,amd采高性价比策略,对标nvidia同级品,amd提供仅60~70%价格,甚至代表性或具规模客户能以更低价策略方式抢进市场,预期2024年尤以microsoft为最积极采纳amd高端gpu mi300方案业者。
nvidia为维持领先,将更致力拓展多元组合产品线
nvidia在面临潜在隐忧下,亦更积极加速拓展其多元产品线,以应对不同客户群。2024年起将正式替换a100产品,而以价格更高的h100系列为主轴。除h100,预估自今年第二季末开始小量出货搭载更高hbm3e规格的h200产品。另预估nvidia未来在价格上将更积极采差别订价,h100采部分折价策略,h200应维持约h100原价格水位,以提供更高性价比方式,稳固云端csp客户。除此之外,nvidia将采用nre(一次性工程费用;non-recurring engineering expense)模式,与meta、google、aws及openai等厂商展开洽谈,并将目标扩及电信、车用及电竞客户。
此外,预期nvidia自2024年下半年将推出新一代b100产品,相较h系列可望在效能上又有所提升,在hbm存储器容量将高出h200约35~40%,以应对更高效能hpc或加速llm ai训练需求。而在中低端产品上,除l40s针对企业客户做边缘端较小型ai模型训练或ai推理外,另亦规划以l4取代既有t4,作为云端或边缘ai推理应用。
值得注意的是,为避免2023年gpu供应不足问题,nvidia亦积极参与cowos及hbm等扩建产能需求,预期今年第二季在相关原厂产能逐步开出后,原交付lead time平均约40周也将减半,逐步去除下游供应链因gpu短缺而使ai服务器供应进度受阻问题。