戴尔科技集团创始人兼首席执行官迈克尔·戴尔近日在行业论坛上提出惊人预测:到2028年,全球人工智能领域对内存的总需求量将攀升至2023年的625倍。这一判断基于AI硬件发展的双重驱动效应——单颗加速器的内存容量与全球部署规模将同步实现25倍增长。
英伟达产品迭代轨迹印证了这一趋势。其2023年推出的H100加速器搭载80GB HBM内存,而最新规划中的Vera Rubin平台将采用"HBM4+SOCAMM"混合架构,单颗加速器内存容量达1824GB。其中由英伟达牵头制定的SOCAMM标准,联合三星、SK海力士等企业开发,专为AI服务器设计,单模块即可提供1536GB容量,较现有HBM方案实现量级突破。
内存需求的指数级增长源于技术演进的双重叠加。据行业分析,到2028年单颗AI加速器的内存容量将从80GB扩展至2TB,同时全球数据中心部署的加速器总量也将增长25倍。这种乘数效应使得总内存需求呈现625倍的爆发式增长,远超传统计算领域的扩容速度。
值得关注的是,新型内存标准正在重塑技术格局。SOCAMM作为CPU侧大容量内存解决方案,与HBM形成互补。在Vera Rubin架构中,1536GB的SOCAMM模块与288GB HBM4协同工作,使单加速器系统内存容量逼近2TB门槛。这种设计特别针对大语言模型训练等高负载场景,显著提升数据吞吐效率。
迈克尔·戴尔特别指出,内存产能扩张需要3-5年建设周期,但当前AI基础设施需求未见任何放缓迹象。"我们仍处于技术导入的早期阶段",他强调,内存技术革新与算力集群扩张的协同效应,将持续推动行业进入新的增长周期。这种发展态势对半导体供应链提出全新挑战,要求存储厂商在制程工艺、封装技术等领域实现突破性创新。






















