美光HBM,奋起直追

栏目:行业动态 发布时间:2023-12-29

美光科技与英特尔等其他领先的人工智能 (AI) 半导体公司一起,加大了挑战行业领跑者的力度。12月24日,据半导体行业消息人士透露,全球第三大DRAM制造商美光目前正在对其开发的HBM3E进行主要客户的质量评估。
  高带宽内存(HBM)是人工智能服务器中使用的一种 DRAM,其特点是堆叠多种类型的 DRAM 以增强数据处理能力和速度。目前由三星电子和 SK 海力士主导的全球 HBM 市场预计将从今年的约 2.5 万亿韩元增长到 2028 年的约 8 万亿韩元。
  美光科技预计 2023 年市场份额约为 5%,位居第三。该公司对其下一代产品 HBM3E 下了很大的赌注,以缩小与领先者的差距。美光执行官 Sanjay Mehrotra 表示:“我们正处于为 Nvidia 下一代 AI 加速器提供 HBM3E 的验证的阶段。”
  HBM和GPU捆绑在一起的AI加速器市场也面临着激烈的竞争。人工智能加速器是专门用于大规模数据训练和推理的半导体,被认为在生成人工智能时代至关重要。
  英特尔正在这一领域做出巨大努力。12月14日,英特尔推出了Gaudi3下一代AI加速器原型机,其速度较前代产品提升至4倍,HBM提升1.5倍。英特尔执行官帕特·基辛格(Pat Gelsinger)一直公开批评人工智能加速器领域的英伟达,他表示:“随着数据推理[服务]的重要性不断增长,英伟达专注于数据训练的时代也将结束。”
  各个AI半导体领域的第三名逆袭是由市场的增长潜力驱动的。据AMD称,AI加速器市场目前价值300亿美元,预计到2027年将扩大到1500亿美元。HBM市场预计未来五年每年将以50%的速度增长。
  客户想要检查领先公司的主导地位的愿望也刺激了新参与者积极进入市场。例如,微软等主要人工智能加速器市场参与者正在敦促 AMD 和英特尔等公司开发 Nvidia 的替代品。在 HBM 市场,一位客户已预付款 6 亿美元支持美光的新产品开发。
  市场正致力于通过新产品扩大领先地位。在HBM市场,三星电子和SK海力士正在开发第六代HBM——HBM4,预计将采用“混合键合”技术,在减小尺寸的同时提高容量。Nvidia 正在开发“X100”人工智能加速器,预计将于 2025 年发布,这将使内存使用量提高到 400 GB。
  美光将向英伟达供应HBM
  美光重申计划于 2024 年初开始大批量发货 HBM3E 内存,同时还透露 NVIDIA 是其新型 RAM 的主要客户之一。同时,该公司强调其新产品受到了整个行业的极大兴趣,这暗示 NVIDIA 可能不是终使用美光 HBM3E 的客户。
  美光公司总裁兼执行官 Sanjay Mehrotra 在公司财报电话会议上表示:“我们的 HBM3E 产品系列的推出引起了客户的浓厚兴趣和热情。”
  领先于竞争对手三星和 SK 海力士推出 HBM3E(该公司也称为HBM3 Gen2)对于美光来说是一件大事,美光在 HBM 市场上处于劣势,市场份额为 10%。该公司显然对 HBM3E 寄予厚望,因为这可能使其能够领先于竞争对手(赢得市场份额)提供优质产品(以提高收入和利润)。
  通常情况下,内存制造商往往不会透露其客户的姓名,但这美光强调其 HBM3E 是其客户路线图的一部分,并特别提到 NVIDIA 是其盟友。与此同时,NVIDIA 迄今为止宣布的支持 HBM3E 的产品是Grace Hopper GH200计算平台,该平台配备 H100 计算 GPU 和 Grace CPU。
  Mehrotra 表示:“在整个开发过程中,我们一直与客户密切合作,并正在成为他们的人工智能路线图上紧密结合的合作伙伴。” “美光 HBM3E 目前已获得 NVIDIA 计算产品的资格,这将推动 HBM3E 驱动的人工智能解决方案。”
  美光的 24 GB HBM3E 模块基于八个堆叠 24Gbit 内存芯片,采用该公司的 1β (1-beta) 制造工艺制造。这些模块的数据速率高达 9.2 GT/秒,使每个堆栈的峰值带宽达到 1.2 TB/s,比现有快的 HBM3 模块提高了 44%。与此同时,该公司不会停止其基于 8-Hi 24 Gbit 的 HBM3E 组件。该公司宣布,继开始量产 8-Hi 24GB 堆栈后,计划于 2024 年推出超大容量 36 GB 12-Hi HBM3E 堆栈。
  美光执行官补充道:“我们预计将于 2024 年初开始 HBM3E 的生产,并在 2024 财年实现可观的收入。”
  美光128 GB DDR5 内存模块送样
  美光科技在本周的财报电话会议上表示,该公司正在对 128 GB DDR5 内存模块进行送样,这些模块基于该公司的单芯片、非堆叠32 Gb DDR5 内存设备,该公司于今年夏天早些时候宣布推出该设备,终将为服务器打开 1 TB 内存模块的大门。
  美光总裁兼执行官 Sanjay Mehrotra 表示:“我们通过基于单片芯片的 128 GB 模块扩展了我们的高容量 D5 DRAM 模块产品组合,并且我们已开始向客户提供样品,以帮助支持他们的 AI 应用需求。” “我们预计该产品将在 2024 年第二季度实现收入。”
  美光的 32 Gb DDR5 芯片采用该公司的 1β (1-beta) 制造工艺制造,这是仅依赖深紫外 (DUV) 光刻多重图案化且不使用极紫外 (EUV) 光刻工具的一个生产节点。不过,这就是我们目前对美光 32 Gb DDR5 IC 的了解:该公司没有透露其速度档,但我们可以预期,与在相同电压下运行的两个 16 Gb DDR5 IC 相比,功耗会有所下降。数据传输率。
  美光的新型 32 Gb 内存芯片为创建仅包含 8 个独立内存芯片的个人电脑标准 32 GB 模块以及基于 32 个此类 IC 的面向服务器的 128 GB 模块铺平了道路。此外,这些芯片使得生产 1 TB 容量的内存模块成为可能,而这在今天看来是无法实现的。这些 1 TB 模块目前看来有些过大,但它们有利于人工智能、大数据和服务器数据库等领域。此类模块可以使服务器每个插槽支持高达 12 TB 的 DDR5 内存(在 12 通道内存子系统的情况下)。
  总体而言,就DDR5内存而言,值得注意的是,该公司预计2024年初DDR5的位产量将超过DDR4,稍稍领先于行业。
  “美光在向 D5 的行业转型中也拥有强大的地位, ”Mehrotra 说。“我们预计美光 D5 销量将在 2024 年初超越 D4,领先于行业。”