加速计算和生成式AI 是新工业革命里程碑,已达爆发临界点。
2022 年ChatGPT 爆红掀起AI 浪潮,2023 年生成式AI 崭露头角,这是新工业革命的重要里程碑。Transformer 模型推出后,大模型每六个月有效扩展1倍。当前最新、最先进的OpenAI 模型已拥有约1.8 亿个参数,需要几万亿Token 进行训练。因此,通用计算已经失去动力,需要另一种计算方式以继续扩大计算规模并降低计算成本,需要更大的GPU 支持。
“ 世界最强大芯片”Blackwell 问世,AI 性能达到Hopper 的5 倍。
Nvidia 推出Blackwell 架构GPU B200(一个封装内有两片die,使用传输速度10TB/s 的NVLink 5.0 技术连接),该芯片集成2080 亿个晶体管(Hopper 集成800 亿个晶体管),采用台积电4NP 制造工艺,能够提供高达20 PFLOPS 的FP4 性能(Hopper 为4 PFLOPS),配备192GB HBM3e 内存,提供高达8TB/s的带宽。同时其推出“超级芯片”GB200,由2 个B200 GPU 和1 个Grace GPU组成。相较于H100 Tensor Core GPU,GB200 超级芯片在大语言模型推理工作负载方面的性能提高30 倍,并将成本和能耗降低了25 倍。亚马逊、谷歌、Meta、微软、甲骨文云和Open AI 等公司都将是Blackwell 芯片的首批用户。
推出创新AI软件NIMs, 大幅缩短使用该服务客户部署定制应用时间。
Nvidia 推出数十项企业级生成式AI微服务,其中NIMs(Nvidia Inference MicroService)适用于英伟达及合作伙伴生态系统中20多个热门AI模型进行推理优化。企业利用微服务在自身平台上创建和部署定制应用,能够将部署时间从几周缩短几分钟。英伟达希望能够通过微服务吸引购买英伟达服务器的客户注册Nvidia AI Enterprise 5.0,对每个GPU 收取4500 美元/年的费用。
携手微软Azure 发布的AI Foundry, 为企业打造定制生成式AI 模型。
Nvidia AI 代工服务主要面向使用 Microsoft Azure 的初创公司和企业,该服务包括Nvidia AI 基础模型、NEMO 框架和工具以及DGX 云AI 超级计算,允许公司在Microsoft 的云平台上构建和部署自定义AI 模型,包括智能搜索、摘要和内容生成。商业软件开发商SAP、提供基于云的数据仓库和分析服务公司Snowflake 均在使用该服务。
Omniverse 可连接至Vision Pro,GR00T 备战人形机器人。
关于仿真平台Omniverse,黄仁勋重点介绍了利用其在预测气候问题方面的进展,并提到Omniverse Cloud 将可以连接到苹果MR 头显Vision Pro。此外,Nvidia 发布了人形机器人通用基础模型Project GR00T,并推出基于NvidiaThor 系统级芯片的新型人形机器人计算机Jestson Thor,对适用于自主移动机器人的Isaac Robotics 平台进行了升级。
风险提示:宏观经济不及预期;地缘政治风险;AI 应用落地不及预期;AI 芯片需求不及预期等。