投资建议
2023 年5 月,谷歌召开I/O大会推出新一代语言模型PaLM 2,其多语言、理解推理、代码生成等能力较初代PaLM又有了提升。谷歌宣称将PaLM 2 大模型能力接入旗下25 款应用中,以Bard、Workspace等为窗口触达个人与企业,赋能办公、医疗、网安等领域。我们认为,PaLM系列大模型彰显谷歌追求通用人工智能的愿景,背后有着算法、算力、系统架构等方面深厚的技术积淀。本文梳理了谷歌在大模型领域的算法积累以及PaLM系列模型背后的算力支撑。谷歌作为AI的引领者,其新应用有望推动AI加速落地。建议投资者关注5 月谷歌I/O大会给行业带来的潜在催化。
理由
谷歌是大模型的奠基者、通用人工智能的探索者。2017 年Google提出的Transformer神经网络架构在自然语言处理领域有着优秀的表现,随后迅速成为各类预训练大模型的基础架构。2017 年以来,谷歌相继推出BERT、T5、Switch Transformer、PaLM-E等大模型,参数规模从1 亿个拉升至1.6 万亿个。从BERT到PaLM-E,我们不仅看到了模型参数规模的扩大,也看到了模型通用能力的增强(T5 在探索将所有的任务都转化归一;Switch Transformer在探索由一个模型执行不同任务;PaLM-E具备视觉语言多模态能力,能够沟通物理现实和虚拟模型两个世界)。我们认为,这些大模型成果都以一种较为清晰的脉络,勾勒出谷歌想要实现通用人工智能的愿景。
应用落地是AI价值体现的关键,而推动AI落地离不开算力的支撑。PaLM-E综合了ViT和PaLM两个大模型的能力。利用机器视觉和语言理解,PaLM-E能够驱动机器人执行复杂任务。我们认为PaLM-E将大模型能力由“决策层”延伸至“执行层”,赋予了AI大模型应用落地的更大可能。我们认为大模型能力仍需算力基础设施的支撑。以PaLM为例,其训练动用了2 个Cloud TPU v4Pods和6144 块TPU,采用数据并行和模型并行相结合的方式提升训练效率,最终形成参数规模高达5400 亿个、硬件使用效率达57.8%的大语言模型。
此外,谷歌还搭建了Pathways架构,通过资源管理器合理调度数据与算力资源,使得整体训练系统能在更大程度上更充分地利用硬件资源。
估值与建议
我们建议关注5 月谷歌I/O大会对产业链的潜在催化。1)下游应用:海康威视等。2)算力基础设施:浪潮信息、星网锐捷、锐捷网络(未覆盖)、中兴通讯、紫光股份(未覆盖)、中际旭创、新易盛、亨通光电、天孚通信(未覆盖)等。
风险
AI应用发展不及预期,AI算力需求不及预期。