ai服务器需求带动, hbm供应龙头sk海力士今年市占率将逾五成|trendforce集邦咨询-yb体育app官网

来源:集邦咨询       

trendforce集邦咨询:ai服务器需求带动, hbm供应龙头sk海力士今年市占率将逾五成

ai服务器出货动能强劲带动hbm(high bandwidth memory)需求提升,据trendforce集邦咨询研究显示,2022年三大原厂hbm市占率分别为sk海力士(sk hynix)50%、三星(samsung)约40%、美光(micron)约10%。此外,高阶深度学习ai gpu的规格也刺激hbm产品更迭,2023下半年伴随nvidia h100与amd mi300的搭载,三大原厂也已规划相对应规格hbm3的量产。因此,在今年将有更多客户导入hbm3的预期下,sk海力士作为目前唯一量产新世代hbm3产品的供应商,其整体hbm市占率可望藉此提升至53%,而三星、美光则预计陆续在今年底至明年初量产,hbm市占率分别为38%及9%。

预估2023年ai服务器出货量年增15.4%

目前nvidia所定义的dl/ ml型ai服务器平均每台均搭载4张或8张高端显卡,搭配两颗主流型号的x86 服务器cpu,而主要拉货力道来自于美系云端业者google、aws、meta与microsoft。据trendforce集邦咨询统计,2022年高端搭载gpgpu的服务器出货量年增约9%,其中近80%的出货量均集中在中、美系八大云端业者。展望2023年,microsoft、meta、baidu与bytedance相继推出基于生成式ai衍生的产品服务而积极加单,预估今年ai服务器出货量年增率可望达15.4%,2023~2027年ai 服务器出货量年复合成长率约12.2%。

ai服务器刺激server dram、ssd与hbm需求同步上升

根据trendforce集邦咨询调查,ai服务器可望带动存储器需求成长,以现阶段而言, server dram普遍配置约为500~600gb左右,而ai服务器在单条模组上则多采64~128gb,平均容量可达1.2~1.7tb之间。以enterprise ssd而言,由于ai服务器追求的速度更高,其要求优先满足dram或hbm需求,在ssd的容量提升上则呈现非必要扩大容量的态势,但在传输接口上,则会为了高速运算的需求而优先采用pcie 5.0。而相较于一般服务器而言,ai服务器多增加gpgpu的使用,因此以nvidia a100 80gb配置4或8张计算,hbm用量约为320~640gb。未来在ai模型逐渐复杂化的趋势下,将刺激更多的存储器用量,并同步带动server dram、ssd以及hbm的需求成长。

网站地图