事件:
美国当地时间3 月18 日下午,全球瞩目的英伟达2024GTC 大会在加州圣何塞SAP 球场开幕。
Blackwell GPU 发布
黄仁勋表示,Blackwell 的 AI 性能可达 20 petaflops,并配备192GB HBM3e显存,8TB/sec HBM 带宽。采用台积电 4 纳米(4NP)工艺,整合两个独立裸晶(Die),裸晶之间通过10 TB / 秒的NVLink 5.0(NV-HBI)连接。
Blackwell complex 的 NVLink 5.0 端口可提供 1.8 TB / 秒的带宽,是Hopper GPU 上 NVLink 4.0 端口速度的两倍。此外,每个 Blackwell 裸晶(die)的浮点运算能力比 Hopper Die 高出 25%,且每个封装中包含两个Blackwell 芯片,总性能提高 2.5 倍。
发布GB200,性能全面提升
架构上GB200 包含两个 B200 Blackwell GPU 和一个基于 Arm 的 GraceCPU ,IT 之家援引英伟达官方报告,训练一个 1.8 万亿个参数的模型以前需要 8000 个 Hopper GPU 和 15 兆瓦的电力。如今,Nvidia 首席执行官表示,2000 个 Blackwell GPU 就能完成这项工作,耗电量仅为 4 兆瓦。
GB200 内部可容纳72 个GPU,在性能方面,推理大语言模型性能比 H100提升 30 倍,在参数为 1,750 亿的 GPT-3 LLM 基准测试中,GB200 的性能是 H100 的 7 倍,而训练速度是 H100 的 4 倍。同时,B200 平台可以向下兼容,支持与上一代Hopper 架构的H100/H200 HGX 系统硬件适配。
我们认为,GB200 快速推广也有望带动高速光模块需求数量提升。
GB200 使用液冷方案,液冷应用成为增量
GB200 NVL72 服务器提供 36 个 CPU 和 72 个 Blackwell GPU,并使用一体水冷散热方案。NVIDIA GB200 NVL72 是一种多节点、液冷、机架规模系统。我们认为,GB200 推广也有望拉动AI 服务器液冷需求以及数据中心侧液冷的应用。
发布智能汽车&具生智能相关合作与项目
在GTC 大会上,黄仁勋宣布包括和比亚迪的合作,以及宣布一项名为GR00T的项目,旨在进一步推动英伟达在机器人和具身智能的突破性工作。公司在具身智能有较多布局,未来有望继续深化在该领域的布局与研究。
关注产业链核心受益标的
我们认为,本次GTC 大会发布GB200 有望带动高速光模块销量提升。GB200搭配液冷方案,带动整体液冷在AI 服务器及数据中心侧的渗透率提升。建议关注产业链核心受益标的:
①光模块&光芯片:中际旭创、天孚通信、新易盛、源杰科技(与电子团队联合覆盖)、博创科技、仕佳光子,建议关注:罗博特科等②服务器交换机:沪电股份(与电子团队联合覆盖)、紫光股份(与计算机团队联合覆盖)、中兴通讯,建议关注:菲菱科思、华丰科技、鼎通科技等③智算中心:润泽科技(与机械团队联合覆盖)、润建股份、奥飞数据(与计算机团队联合覆盖)、科华数据(与电新团队联合覆盖)等④液冷:润泽科技(与机械团队联合覆盖),建议关注:英维克、高澜股份、科创新源等
⑤机器人:汉威科技(与机械团队联合覆盖)、拓邦股份(与电子团队联合覆盖)等
风险提示:产品落地及销量不及预期,新产品推进节奏不及预期,AI 发展不及预期等风险