英伟达发布DGX 云,算力成本有望降低。目前GPT 模型对于算力的消耗量较大,GPT 的模型算力和模型参数成正比,当下大模型参数量已经到千亿规模,对算力需求量较大。根据GPT 官网的收费标准,GPT-4 的收费标准相比于GPT-3,输入端价格增长50%-200%,输出端价格增长200%-500%,相比于GPT-3.5-turbo 的成本输入成本增长了14-29 倍,输出成本增长29-59 倍。
英伟达推出DGX 云服务后,为各大厂商提供较为低廉的AI 算力服务,降低了各个应用厂商的算力门槛,目前已经和微软云、谷歌云、Oracle 开展合作,其首个NVIDIA DGX Cloud 是与Oracle 合作的云服务,每个实例每月3.7 万美元起。
微调模型和DGX 基础模型助力应用百花齐放。GPT-3 提供四种微调模型服务,B 端客户只需将自身的私域数据放到微调模型中训练即可获得自己的垂类小模型。英伟达也推出三大模型(NEMO 语言模型、Picasso 视觉模型、Bionemo生物模型)为B 端厂商赋能,降低自身建立模型的门槛。微调模型和英伟达的基础模型将有效降低B 端厂商建立自身模型的门槛,此情况下,B 端厂商是否有模型调优能力以及细分场景数据将成为大模型能否落地应用的关键。
BloombergGPT 发布,细分领域龙头有望凭借数据积累获得先发优势。
Bloomberg 近期发布了一个拥有500 亿参数的金融领域的大规模语言模型,取名BloombergGPT。训练的数据集,51.3%来自于彭博近40 年来的金融领域积累的数据,48.7%来自于公开数据。从最终的测试效果来看,在通用性能上,BloombergGPT 相比其他模型没有明显的不足,但是在金融专业领域,BloombergGPT 相比其他模型有明显的优势。从Bloomberg 的案例可以看出,未来具备细分领域高质量数据的公司在大模型的应用上将获得先发优势。
投资建议:GPT 大模型的开发已经成为业内的趋势,众多的厂商开始有计划的推出基于自身领域的垂直类大模型。未来,大模型的运用能力以及高质量细分领域数据将成为大模型是否能够有效落地应用的关键抓手,我们认为在AI 领域高投入、拥有大模型调优能力,且具备细分场景高质量数据集的公司有望在应用端获得先发优势,建议重点关注细分领域龙头,比如科大讯飞、金山办公、恒生电子、广联达、石基信息、同花顺、三六零、美亚柏科等。
风险提示:疫情反复;计算机下游需求不及预期;ChatGPT 技术发展不及预期;ChatGPT 的商业化落地不及预期。