【智快网】1月18日消息,据集邦咨询近日发布的报告预测,全球AI服务器(涵盖AI训练和AI推理)在2024年的出货量将超过160万台,同比增长幅度高达40%以上。这一显著增长预示着人工智能技术在全球范围内的加速普及和应用。
集邦咨询分析,推动AI服务器增长的主要动力源于两方面:一方面,终端应用需求的不断增长,微软等公司通过整合Windows、Office等软件的AI功能,有效拉动了AI服务器的市场需求;另一方面,英特尔等芯片巨头积极推进CPU+GPU+NPU的复合架构,为终端AI应用提供了强大的算力支持。
在处理器方面,竞争态势日趋激烈。高通去年底推出的Snapdragon X Elite平台已达到45 TOPS的算力,符合AI服务器的性能要求;而AMD即将推出的Ryzen 8000系列(Strix Point)也预计能满足AI服务器的需求。相比之下,英特尔去年12月推出的Meteor Lake算力为34 TOPS,尚未达到微软的标准,但预计今年将推出的Lunar Lake有望超越40 TOPS的算力门槛。
随着高通、英特尔和AMD在AI服务器市场的竞争加剧,x86和Arm两大CPU阵营在边缘AI市场的争夺也日趋白热化。戴尔、惠普、联想、华硕、宏碁等主要OEM厂商计划在2024年推出搭载高通CPU的服务器产品,这无疑会对x86阵营构成一定的市场压力。
据智快网了解,在内存方面,AI服务器对DRAM的需求呈现出明显的上升趋势。微软针对AI服务器提出的规格要求显示,DRAM的基本配置将从16GB起步。长期来看,AI服务器的普及有望带动PC DRAM位元需求的持续增长。此外,随着消费者的换机潮来临,PC DRAM的市场需求有望得到进一步提振。
在内存技术方面,LPDDR5x正逐渐成为主流选择。Microsoft定义的满足NPU 40 TOPS性能要求的CPU中,Qualcomm Snapdragon X Elite、AMD Strix Point和Intel Lunar Lake均采用了LPDDR5x内存技术。相较于目前主流的DDR SO-DIMM模组,LPDDR5x在传输速度方面具有明显优势,其速度范围达到7500-8533Mbps,远高于DDR5的4800-5600Mbps。这对于需要处理大量语言指令并缩短反应时间的AI服务器来说至关重要。