站长之家(ChinaZ.com) 8月2日消息:据市场研究公司 最新报告">TrendForce 最新报告指出,2023 年 HBM(高带宽存储器)市场的主导产品是 HBM2e,该产品由英伟达 A100/A800、AMD MI200 以及大多数云服务提供商的自主开发的加速器芯片所采用。
随着对 AI 加速器芯片需求的不断发展,制造商计划在 2024 年推出新的 HBM3e 产品,预计 HBM3 和 HBM3e 将成为明年市场的主流。
HBM 各代之间的区别主要在于速度。在过渡到 HBM3 一代时,行业中出现了许多令人困惑的命名。TrendForce 明确指出,当前市场上所谓的 HBM3 应分为两个速度类别。一个类别是运行速度在 5.6 至 6.4 Gbps 之间的 HBM3,另一个类别是 8 Gbps 的 HBM3e,也被称为 HBM3P、HBM3A、HBM3+和 HBM3 Gen2 等多种名称。
三大主要制造商 SK 海力士、三星和美光在 HBM 的发展状态上存在差异。SK 海力士和三星从 HBM3 开始着手,该技术被用于英伟达的 H100/H800 和 AMD 的 MI300 系列产品中。预计这两家制造商还将在 2024 年第一季度开始提供 HBM3e 样品。与此同时,美光选择跳过 HBM3,直接开发 HBM3e。
HBM3e 将采用 24Gb 单芯片堆叠,并在 8 层(8Hi)基础上,单个 HBM3e 的容量将达到 24GB。预计这将应用于英伟达的 GB100,该产品将于 2025 年推出。因此,主要制造商预计将在 2024 年第一季度发布 HBM3e 样品,并计划在 2024 年下半年开始大规模生产。
云服务提供商正在开发自己的 AI 芯片,以减少对英伟达和 AMD 的依赖。在 AI 服务器加速器芯片领域,英伟达继续占据最高市场份额。然而,英伟达的 H100/H800 GPU 价格在每台 2 万至 2.5 万美元之间,再加上 AI 服务器的推荐配置需要 8 张卡,大大增加了总拥有成本。因此,虽然云服务提供商将继续从英伟达或 AMD 采购服务器 GPU,但同时计划开发自己的 AI 加速器芯片。
科技巨头谷歌和亚马逊 AWS 已在这一领域取得了重大进展,其中谷歌成立了 Tensor 处理单元(TPU),AWS 推出了 Trainium 和 Inferentia 芯片。此外,这两个行业领导者已经在努力开发下一代 AI 加速器,将采用 HBM3 或 HBM3e 技术。
此外,北美和中国的其他云服务提供商也正在进行相关验证,预示着未来几年 AI 加速器芯片市场可能出现激烈竞争。