人工智能崛起,LPDDR 内存成 “香饽饽”,短缺与涨价齐现

栏目:行业动态 发布时间:2026-05-06

据业内人士于 28 日透露,今年各大半导体设计公司推出的每个 AI 服务器机架,预计都将配备相当于数千部智能手机所用 LPDDR 内存容量的芯片。这一情况导致智能手机厂商出现了 “恐慌性购买” LPDDR 的现象。在供应短缺的背景下,三星电子、SK 海力士和美光等主要内存厂商在 LPDDR 领域展现出了更强的定价能力。
  值得关注的是,这三家内存厂商近期已开始全面量产搭载于 AI 芯片上的 SOCAMM2 产品。SOCAMM2 是针对 AI 芯片定制的 LPDDR5X 内存模块。LPDDR 标准历经了 1、2、3、4、4X、5 和 5X 的发展历程,而 SOCAMM2 则是在服务器环境 LPDDR5X 的基础上进行改进,以适配下一代 AI 芯片。
  SK 海力士于 20 日正式宣布开始量产基于 10 纳米(nm,十亿分之一米)级第六代(1c)工艺的 192GB SOCAMM2 固态硬盘。美光科技也曾在 3 月份表示正在 “量产 SOCAMM2”。三星电子近期在多个展会上展示了 SOCAMM2 实物,暗示其正在向客户供货。
  英伟达被视为 SOCAMM2 的目标客户。英伟达计划在今年下半年推出其下一代人工智能芯片 Vera Rubin。该芯片的一项关键特性是将 72 个 Rubin 图形处理器(GPU)和 36 个 Vera 中央处理器(CPU)集成到一个机架中,以提升性能。每个 Vera CPU 支持 1.5 TB 的 LPDDR5X 内存,该架构将八个 192GB 的 SOCAMM2 模块集成到单个 Vera CPU 中。如果采用机架式设计,则可安装超过 50TB 的 LPDDR5X 内存,与上一代产品(Blackwell,17TB LPDDR5X)相比,容量提升了约 3.2 倍。简单计算可知,仅一个 Vera Rubin 机架就需要消耗相当于约 4500 部智能手机所需的 LPDDR5X 内存。一位业内人士形象地表示:“人工智能芯片就像一个‘黑洞’,不断吞噬低功耗 DRAM。” 他还预计,从今年下半年 Vera Rubin 发布开始,LPDDR 内存的短缺问题将更加突出。
  除了英伟达,LPDDR 也被用于特斯拉和高通的下一代 AI 芯片,这可能会进一步加剧 LPDDR 的短缺。特斯拉执行官埃隆?马斯克近公布了下一代 AI 自动驾驶芯片 AI5 的流片,该芯片在单颗芯片上集成了 192GB 的 LPDDR5X 内存。高通公司将业务从传统移动芯片扩展到人工智能数据中心解决方案,也使得 LPDDR 的需求随之增长。该公司表示,今年计划发布的每张专注于推理的 AI200 显卡都支持 768GB 的 LPDDR 内存。有观点认为,高通执行官克里斯蒂亚诺?阿蒙近期访问韩国会见三星电子和 SK 海力士高管,旨在解决 LPDDR 供需日益不稳定的问题。
  由于三大内存厂商优先向高利润的人工智能芯片制造商供应 LPDDR 内存,智能手机行业已对此保持高度警惕。三星电子和苹果近期就 12GB LPDDR5X 内存的价格和初始供货问题进行的谈判便是例证。据悉,三星电子与苹果就 iPhone 18 系列所使用的 LPDDR5X 内存的定价和初期供货量进行了磋商,尽管价格几乎是之前的两倍,苹果还是接受了三星电子的提议。12GB LPDDR5X 内存的单价从去年年初的 30 美元左右上涨到今年年初的 70 美元左右(约合 10 万韩元)。
  市场研究公司 TrendForce 估计,第一季度 LPDDR4X 和 LPDDR5X 的合约价格较上一季度上涨了约 90%,并且 “有望创下有史以来的增长率”。LPDDR 价格上涨也令无晶圆厂(半导体设计)企业头疼不已。一位要求匿名的国内无晶圆厂高管表示:“现在买一块 LPDDR5X 的价格相当于去年买 16 块的价格。即便我们能承受这次价格上涨,市场需求量也很小,这才是主要问题。”
  人工智能市场对 SOCAMM2 的需求激增,主要归因于不断提高的性能要求。传统的 AI 芯片配置采用 HBM 和双倍数据速率(DDR)5 寄存式双列直插内存模块(RDIMM),难以同时满足性能、功耗和尺寸方面的要求。目前,LPDDR 正致力于解决这一问题。集成到 GPU 封装中的 HBM 可提供超高带宽,但在容量、成本和发热量方面存在局限性。DDR5 RDIMM 容量大,但结构上存在限制,带宽和能效相对较低。
  SOCAMM 是一种将多个 LPDDR 芯片堆叠并组装成模块的结构,并以高密度排列在封装附近。与直接焊接在主板上的传统 LPDDR 不同,SOCAMM 在保持高带宽和低功耗的同时,还支持插拔和更换。它比 HBM 更接近系统内存,但在带宽和延迟方面,它比 RDIMM 更接近 GPU 和 CPU,可以作为 “中间层” 内存使用。随着 AI 模型规模的扩大和参数的激增,HBM 无法单独应对容量和功耗方面的限制,SOCAMM 正通过充当缓冲层,成为 “未来的增长引擎”。一位半导体行业官员表示:“随着 SOCAMM2 作为弥合 HBM 和系统内存之间性能、功耗和外形尺寸差距的新层级出现,其应用正在不断增加。”