来源:集邦咨询
trendforce集邦咨询:2024年copilot进入商用,将同步带动ai server及终端ai pc发展
ai话题热议,2024年将拓展至更多边缘ai应用,或延续ai server基础,推至ai pc等终端装置。trendforce集邦咨询预期,2024年全球ai服务器(包含ai training及ai inference)将超过160万台,年成长率达40%,而后续预期csp也将会更积极投入。
由于严谨的edge ai应用,将回归至终端的ai pc,借以落实分散ai服务器的工作量能,并且扩大ai使用规模的可能性。据此,trendforce集邦咨询定义ai pc需达microsoft要求的40 tops算力基础,考量满足此需求的新品出货都将落于2024下半年,待cpu产业龙头intel于2024年终推出lunar lake后,2025年才可望见证更快速的成长。
目前ai pc市场可大致分为两大推动力量,其一,由终端应用需求推动,主由microsoft凭借个人计算机windows操作系统及office等工具几近独占市场地位,预期将推新一代windows整合copilot,促使copilot变成硬需求。其二,cpu领先者intel诉求ai pc为搭配cpu gpu npu架构,藉此推动发展各种终端ai应用。
以microsoft copilot对算力的要求来说,qualcomm于2023年底发布的snapdragon x elite平台,将于2024年下半年前率先出货符合copilot标准的cpu,算力应可达45 tops,而amd随后将推出的ryzen 8000系列(strix point),估计也将符合该算力规格。若以intel于2023年12月推出的meteor lake,其cpu gpu npu算力仅34 tops,并不符合microsoft要求,但预期今年底所推lunar lake则有机会超过40 tops门槛。
值得注意的是,未来在qualcomm及intel、amd竞逐ai pc过程,也将牵动x86及arm两大cpu阵营在edge ai市场的竞争。由于qualcomm有望率先符合microsoft需求,以pc主要oems如dell、hpe、lenovo、或asus、acer等在2024年将陆续开发搭载qualcomm cpu机种,以争取首波ai pc机会,将带给x86阵营一定威胁。
ai pc有望带动pc平均搭载容量提升,并拉高pc dram的lpddr比重
从现有microsoft针对ai pc的规格要求来看,dram基本需求为16gb起跳,长期来看,trendforce集邦咨询认为,ai pc将有机会带动pc dram的位元需求年成长,后续伴随着消费者的换机潮,进而加大产业对pc dram的位元需求。
再者,以microsoft定义的满足npu 40 tops的cpu而言,共有三款且依据出货时间先后分别为qualcomm snapdragon x elite、amd strix point及intel lunar lake。其中,三款cpu的共同点为皆采用lpddr5x,而非现在主流采用的ddr so-dimm模组,主要考量在于传输速度的提升;以ddr5规格而言,目前速度为4800-5600mbps,而lpddr5x则是落于7500-8533mbps,对于需要接受更多语言指令,及缩短反应速度的ai pc将有所帮助。因此,trendforce集邦咨询预期,今年lpddr占pc dram需求约30~35%,未来将受到ai pc的cpu厂商的规格支援,从而拉高lpddr导入比重再提升。