事件:
ChatGPT 已不支持Plus 付费。
1、算力需求紧张,计算资源稀缺性体现
ChatGPT 不支持Plus 付费原因很简单:High demand。即需求量太大,以至于OpenAI 不得不暂停Plus 的销售。在此之前,微软被爆曾专门为ChatGPT砸下数亿美元,打造了一台由上万张英伟达A100 组成的专用超算,甚至还专门为此调整了服务器架构,只为给ChatGPT 和新必应提供更好的算力。
不仅如此,微软还在Azure 的60 多个数据中心部署了几十万张GPU,用于ChatGPT 的推理。即使消耗数亿美元打造的计算资源,仍然不足以支撑ChatGPT 持续的运行,算力资源稀缺性体现。
2、GPT 持续迭代过程中,算力需求或将持续增长现阶段的 ChatGPT 是在拥有 3000 亿个单词的语料基础上预训练拥有1750 亿参数的模型,而GPT4 官方资料没有讲模型参数和数据规模,没有讲任何技术原理,但GPT4 模型输入更长,可以处理文字输入长度增加到 3.2万个 token,约 25000 字文本,同时智能程度大幅跃迁,可以接受图片输入。可以看到GPT 模型在持续迭代过程中,能力持续增强,所需要的算力需求也或将持续增长。
3、AI 服务器作为算力基础设备有望受益于算力需求持续增长AI 服务器作为算力基础设备,其需求有望受益于AI 时代下对于算力不断提升的需求而快速增长。根据电子发烧友公众号,AI 服务器是异构服务器,可以根据应用范围采用不同的组合方式,如CPU + GPU、CPU + TPU、CPU+ 其他加速卡等。IDC 预计,中国AI 服务器2021 年的市场规模为57 亿美元,同比增长61.6%,到2025 年市场规模将增长到109 亿美元,CAGR 为17.5%。相关标的:中兴通讯、紫光股份(与计算机团队联合覆盖),建议关注:锐捷网络。
4、AI 带动带宽提升,促进光通信迭代升级需求增长在2022 年OCP 峰会上,Nvida 的Craig Thompson 提出AI 计算需要的网络带宽将面临32 倍的提升,这也将带动光通信如光模块、光芯片等的迭代,以及应用需求。
相关标的
①光模块:中际旭创、新易盛、天孚通信,建议关注:博创科技等②光芯片:源杰科技(与电子团队联合覆盖),建议关注:仕佳光子、长光华芯
③光纤光缆&光模块:亨通光电、中天科技
5、算力基础设施底座,IDC 向高功率液冷机柜升级基于CPU+GPU 的异构计算平台可以优势互补,GPU 重点处理数据密集型的并行计算程序。但同时功耗将明显提升,以NVIDIA 的DGX A100 640GB为例,系统功耗达到最大6.5 千瓦,带来数据中心机柜功率的大幅提升,同时也带来液冷应用需求。
相关标的:润泽科技(与机械团队联合覆盖)、奥飞数据(与计算机团队联合覆盖)、科华数据(与电新团队联合覆盖)、润建股份、光环新网等。
风险提示:ChatGPT 应用推动不及预期、GPT 新模型迭代进度不及预期、算力需求不及预期、新技术迭代发展不及预期等