AI推理架构转型正在重塑存储芯片需求格局,这场供需失衡的持续时间或超出市场此前预期。
据首尔经济日报周六报道,随着英特尔等厂商推出搭载高达400GB内存的AI CPU,服务器端对DDR5的需求正急剧膨胀。分析人士指出,三星电子与SK海力士的现有产能难以同步跟上GPU与CPU双重需求的叠加拉动,DRAM供应短缺局面预计将延续至2027年。
市场信号已在现货价格上有所体现,据韩国证券数据,4月DDR5(16GB)现货价格环比上涨2.8%,而传统DDR4同期则下跌16%,两者价差持续扩大。
业内人士表示,当前DRAM市场供给缺口约达需求量的10个百分点。随着HBM需求之外的通用DRAM需求同步攀升,存储芯片"超级周期"的终点或将从此前预期的2026年推迟至2027年。
CPU跃升为"AI协调器",内存需求倍增
此轮需求扩张的核心驱动力,在于AI行业从训练向推理的战略重心转移。
过去,AI数据中心以GPU为核心构建算力基础设施,服务器配置通常为8块GPU搭配1块CPU,重心集中于大规模并行训练任务。然而随着推理场景日趋复杂,CPU的角色正从辅助处理器升级为"AI协调器"——负责调度多个智能体AI系统、管理各模块输出并统筹整体工作流。
这一角色转变的关键在于"上下文记忆"。CPU需要实时保存并引用各智能体AI的输出内容,以协调完整的推理流程,这使得大容量内存成为刚性需求。英特尔高管在近期财报电话会议上表示,AI推理基础设施中CPU与GPU的算力配比已从此前的1比8演变为1比4,且这一比例正进一步向1比1收窄。
在此背景下,CPU厂商正将AI CPU的DRAM配置提升至300至400GB,较传统CPU产品96至256GB的配置高出最多四倍。
GPU与CPU需求叠加,DDR5供需缺口持续扩大
存储容量的竞争正从GPU端蔓延至CPU端,需求呈滚雪球式增长。
GPU侧,英伟达下一代AI芯片"Vera Rubin"通过8组HBM堆叠搭载288GB内存,AMD下一代GPU MI400的内存容量更达到432GB。谷歌最新发布的第八代张量处理单元TPU 8i同样配备288GB HBM。
CPU侧,一旦英特尔"Xeon"与AMD"Epyc"系列AI CPU开始大规模采用高达400GB的DDR5,通用DRAM的供需失衡将进一步加剧。与HBM主要由SK海力士等少数厂商供应不同,DDR5的需求扩张将直接冲击整个通用DRAM市场的供给平衡。
现货市场的价格分化已清晰反映出这一结构性变化:DDR5价格逆势走强,而DDR4价格持续承压,两类产品的市场表现形成鲜明对比,折射出需求端向新一代标准迁移的加速趋势。
三星、SK海力士产能承压,超级周期预期上修
供给端的制约使得这场存储短缺难以在短期内得到缓解。
三星电子与SK海力士作为全球主要DRAM供应商,其产能扩张节奏历来受制于晶圆厂建设周期与先进制程良率爬坡。在HBM产能已被大量锁定的背景下,两家厂商用于通用DDR5生产的有效产能空间相对有限,难以快速响应AI CPU带来的增量需求。
业内人士指出,当前DRAM市场整体供给约短缺10个百分点。商品级DRAM价格此前已较低点翻倍以上,推动三星、SK海力士等存储厂商录得历史性盈利。随着GPU与CPU两端需求持续叠加,市场对超级周期的持续时间预期正在上修——从原本预计的2026年延伸至2027年,存储芯片行业的景气周期或将比市场此前预期更为持久。
本文转载自“华尔街见闻”,作者:赵颖,智通财经编辑:陈思宇。