三星电子公司的目标是在人工智能芯片领域引发话题,今年的高带宽内存(HBM)芯片产量可能会比去年增加一倍。周二在加利福尼亚州圣何塞举行的全球芯片制造商聚会 Memcon 2024 上,三星公司担任副总裁兼 DRAM 产品和技术主管 Hwang Sang-joong 表示,他预计该公司将增加 HBM 芯片产量,今年产量是去年的 2.9 倍。
这是三星今年年初在 CES 2024 上公布的预测,即该芯片制造商到 2024 年 HBM 芯片的产量可能会增加 2.5 倍。
“继已经量产的第三代 HBM2E 和第四代 HBM3 之后,我们计划 Hwang 在 Memcon 2024 上表示:
“我们将在批量大规模生产 12 层第五代 HBM 和 32 GB 128 GB DDR5 产品。“ -人工智能时代的高性能、大容量存储器。”
会上,三星公布了HMB路线图,预计2026年HBM出货量将是2023年产量的13.8倍。到2028年,HBM年产量将进一步增至2023年水平的23.1倍。
在代号为“Snowbolt”的第六代 HBM 芯片 HBM4 中,三星计划将缓冲芯片(一种控制器件)应用到堆栈内存的底层以提高效率。
根据三星之前提交的文件,Snowbolt一词与用于高性能计算设备、人工智能和超级计算设备的高带宽DRAM(动态随机存取存储器)模块有关。根据其描述,这些新的DRAM模块可用于云服务器、高性能计算和人工智能计算。
由于人工智能是当今的趋势,它需要极其强大的服务器和云计算机,三星的Snowbolt内存模块可以使人工智能计算任务更快、更可靠。改进后的人工智能性能可用于各种应用,包括智能手机、电视和各种其他设备上的语音助手。
会上,三星向与会者展示了其的HBM3E 12H芯片——业界首款12堆栈HBM3E DRAM,标志着HBM技术有史以来容量的突破。
三星目前正在向客户提供HBM3E 12H芯片样品,并计划在上半年开始量产。
作为 HBM 芯片领域的落后者,三星在 HBM 领域投入巨资,以与 SK Hynix 和其他内存厂商竞争。HBM 已成为人工智能繁荣的关键,因为它提供比传统存储芯片更快的处理速度。
上周,三星半导体业务负责人 Kyung Kye-hyun 表示,该公司正在开发下一代 AI 芯片 Mach-1,旨在颠覆其同城竞争对手 SK Hynix,后者是先进 HBM 领域的主导厂商。
该公司表示,已同意在今年年底前向Naver Corp.供应 Mach-1 芯片,这笔交易价值高达 1 万亿韩元(7.52 亿美元)。通过这份合同,Naver 希望大幅减少其 AI 芯片对全球 AI 芯片设计商 Nvidia 的依赖。
三星推出扩展的 CXL 内存模块产品组合
在 Memcon 2024 上,先进半导体技术的全球三星电子推出了其 Compute Express Link (CXL) 内存模块产品组合的扩展,并展示了其的 HBM3E 技术,巩固了在面向人工智能应用的高性能、大容量解决方案。
圣克拉拉计算机历史博物馆向拥挤的人群发表主题演讲时,三星电子美国设备解决方案研究中心 - 内存公司执行副总裁 Jin-Hyeok Choi 以及公司执行副总裁、DRAM 产品和主管 SangJoon Hwang三星电子的技术人员上台介绍了新的内存解决方案,并讨论了三星如何在人工智能时代引领 HBM 和 CXL 创新。
VMware by Broadcom VCF 部门产品团队副总裁 Paul Turner 和 Red Hat 副总裁兼总经理 Gunnar Hellekson 与三星一起上台,讨论他们的软件解决方案如何与三星的硬件技术相结合,推动内存创新的界限。
Choi 表示:“如果没有存储技术创新,人工智能创新就无法持续。” “作为内存市场的,三星很自豪能够继续推进创新——从业界的 CMM-B 技术,到用于高性能计算和要求苛刻的人工智能应用的 HBM3E 等强大的内存解决方案。我们致力于与合作伙伴合作,服务客户,共同释放人工智能时代的全部潜力。”
三星推出了 CXL 内存模块 – Box (CMM-B),这是一款的 CXL DRAM 内存池产品,突显了 CXL 生态系统的增长势头。三星 CMM-B 可容纳八个 E3.S 外形尺寸的 CMM-D 设备,并提供高达 2 TB 的容量。巨大的内存容量由高达 60 GB/s 的带宽和 596 纳秒 (ns) 的延迟的高性能支持,可以服务于需要大容量内存的各种应用,例如 AI、内存数据库 (IMDB) )、数据分析等。
三星还与即插即用机架级 IT 解决方案的全球 Supermicro 合作,展示了业界首款用于高度可扩展和可组合的分解基础设施的机架级内存解决方案。这种先进的解决方案利用三星的 CMM-B 来增加内存容量和带宽,使数据中心能够处理要求苛刻的工作负载,这与缺乏现代应用程序所需的灵活性和效率的标准架构不同。增加的内存容量和每台服务器高达 60GB/s 带宽的高性能可以增强需要大容量内存的各种应用程序,例如 AI、IMDB、数据分析等。
在舞台上,三星和 VMware by Broadcom 还推出了 Peaberry 项目,这是世界上个基于 FPGA(现场可编程门阵列)的虚拟机管理程序分层内存解决方案,称为 CXL 分层内存混合内存模块 (CMM-H TM)。这种混合解决方案将 DRAM 和 NAND 介质结合在附加卡 (AIC) 外形中,以应对内存管理挑战、减少停机时间、优化分层内存的调度并限度地提高性能,同时显着降低总拥有成本 (TCO)。
Paul Turner 表示:“VMware by Broadcom 很高兴与三星合作,带来内存领域的新创新。” “三星在内存技术方面的领先地位和 VMware 在软件内存分层方面的领先地位促成了 CXL 的新创新,并提供了令人信服的价值主张,具有显着的 TCO 优势、更好地利用昂贵的 DRAM 资源以及改进的服务器资源整合,同时提供同样出色的性能”。
此外,三星还展示了其CXL内存模块-DRAM(CMM-D)技术,该技术利用三星的DRAM技术与CXL开放标准接口集成,促进CPU和内存扩展设备之间的高效、低延迟连接。红帽是开源软件解决方案领域的全球,去年在业界首次使用其企业软件成功验证了三星的 CMM-D 设备。两家公司将继续通过三星内存研究中心 (SMRC) 合作开发 CXL 开源和参考模型,并在一系列其他存储和内存产品上进行合作。
三星还为 2024 年 Memcon 与会者提供了展示其 HBM3E 12H 芯片的机会,这是全球首款 12 堆栈 HBM3E DRAM,标志着 HBM 技术有史以来实现的容量的突破。HBM3E 12H采用该公司先进的热压非导电薄膜(TC NCF)技术,与前代产品相比,芯片的垂直密度提高了20%以上,同时还提高了产品良率。三星目前正在向客户提供HBM3E 12H样品,并计划在今年上半年开始量产。