核心观点:
Computex 2023:硬件、软件、生态多维度更新迭代推动AIGC 技术应用普及。在Computex 2023 大会,NVIDIA CEO 黄仁勋展示了硬件、软件、生态等多维度的产品更新迭代,发布会亮点包括但不限于:发布基于Grace Hopper Superchip 的用于运行AIGC 的大内存超级计算机DGX GH200;发布用于创建加速服务器的模块化参考架构NVIDIA MGX,推动系统制造商构建100 多种加速服务器配置;发布专用于提高以太网AI 云性能和效率的网络平台NVIDIA Spectrum-X;发布NVIDIA Avatar Cloud Engine(ACE)游戏开发版等。
Grace Hopper Superchip:首款应用于HPC 和AI 的异构加速平台(Heterogeneous accelerated platform)。
NVIDIA 最新的Grace “Hopper”架构将72 核Grace CPU、Hopper GPU、96GB HBM3 和480GB LPDDR5X集成在同一封装中。Grace CPU 使用ARM 架构,在单位功耗下其性能可达传统X86 CPU 的2 倍;CPU 和GPU 通过NVLink-C2C 连接,互联带宽高达900GB/s,是PCIe Gen5 传输速率的7 倍;CPU 配套高至512GBLPDDR5X,相较于8 通道DDR5 方案,Grace CPU-LPDDR5X 间带宽提高超过50%,且能耗更低。在HPC、AI 等应用场景中,相较于传统的X86 CPU+GPU 的解决方案,Grace Hopper Superchip 能提供更高的效率。
DGX GH200:集成NVIDIA 最先进加速计算和网络技术的AI 超级计算机。通过NVIDIA NVLink 将多达256 块Grace Hopper Superchip 连接整合,可得到数据中心大小的超级计算单元—DGX GH200,可以提供1 exaflop性能与接近150TB 共享内存。基于NVLink 网络,GH200 中GPU 可以以900GB/s 的速率与其他GPU/ HBM3/LPDDR5X 互联;与基于IB 网络的系统相比,GH200 系统的all-to-all bandwidth、全规约吞吐量分别是前者的9 倍、4.5 倍;在运行超大容量内存脚本时,基于NVLink 连接的DGX GH200 使得单GPU 能够以NVLink 网络带宽获取系统中其他superchip 上存储的信息,显著提高运行效率;系统内服务器间使用更高速率的NVLink网络互联相应明显增加了对光模块/光芯片的需求量。
投资建议。AIGC 推动AI 服务器需求增长,建议关注:算力:海光信息、寒武纪(计算机组覆盖)、芯原股份、龙芯中科等;连接:源杰科技、澜起科技、裕太微、聚辰股份、帝奥微等;PCB:胜宏科技、沪电股份;存储:
深科技、北京君正、兆易创新、东芯股份等;电源:杰华特;制造:中芯国际、长电科技、通富微电、甬矽电子等;ODM:工业富联;应用:海康威视、大华股份、韦尔股份、思特威、格科微、恒玄科技、晶晨股份、全志科技、瑞芯微等。
风险提示。AIGC 发展不及预 期;AI服务器出货量不及预期 ;国产厂商技术和产品进展不及预期。