华泰证券:大模型持续迭代有望带来大量算力基础设施需求

长远来看,成熟大模型的运营有望带来3169亿美元的服务器增量市场,较2023年全球211亿美元的AI服务器市场而言,仍有较大成长空间。

智通财经APP获悉,华泰证券发布研报指出,从大模型的演化路径来看,模型体量还将进一步扩张,从而带来算力需求持续增长。长远来看,成熟大模型的运营有望带来3169亿美元的服务器增量市场,较2023年全球211亿美元的AI服务器市场而言,仍有较大成长空间。基于此,大模型持续迭代有望带来大量算力基础设施需求,建议关注算力产业投资机遇。

华泰证券主要观点如下:

全球AI算力需求继续向上

随着大模型持续迭代,模型能力不断增强,其背后是“Scaling Law”下模型参数量和数据集不断增长的结果。华泰证券认为,从大模型的演化路径来看,模型体量还将进一步扩张,从而带来算力需求持续增长。

具体来看,大模型对算力的需求体现在预训练、推理、调优三个环节。根据华泰证券的测算,以1000亿参数模型为例,三个环节的算力总需求约18万PFlop/s-day,对应需要2.8万张A100等效GPU算力。长远来看,成熟大模型的运营有望带来3169亿美元的服务器增量市场,较2023年全球211亿美元的AI服务器市场而言,仍有较大成长空间。基于此,华泰证券认为大模型持续迭代有望带来大量算力基础设施需求,建议关注算力产业投资机遇。

模型体量越来越大,带动算力建设需求

大语言模型(LLM)是在大量数据集上预训练的模型,其在处理各种NLP任务方面显示出了较大潜力。Transformer架构的出现开启了大模型的演化之路,随着解码模块堆叠数量的不断增长,模型参数量持续增加,逐渐演化出GPT-1、GPT-2、GPT-3、PaLM、Gemini等不同版本模型,参数量也从十亿、百亿,向千亿、万亿增长。

华泰证券表示,每一代模型的演化都带来能力的增强,背后一个很重要的原因在于参数量和数据集的增长,带来模型感知能力、推理能力、记忆能力的不断提升。基于模型的缩放定律,华泰证券认为,未来模型迭代或仍将延续更大参数量的路径,演化出更加智能的多模态能力。

大模型的算力需求体现在:预训练、推理、调优

拆解来看,大模型的算力需求场景主要包括预训练、Finetune及日常运营。对于三部分的算力需求,华泰证券的测算思路如下:1)预训练:基于“Chinchilla 缩放定律”假设,计算量可以通过公式C≈6NBS来刻画;2)推理:以ChatGPT流量为基准,计算量可以通过公式C≈2NBS来刻画;3)调优:通过调优所需的GPU核时数倒推。

以1000亿参数模型的预训练/推理/调优为例,三个环节所需的算力需求分别为13889、5555.6、216 PFlop/s-day。华泰证券认为,在缩放定律(Scaling Law)加持下,随着模型体量增长,算力需求有望持续释放。

基础设施需求有望持续释放,关注算力产业投资机遇

结合对大模型预训练/推理/调优的算力需求测算,华泰证券预计从开发到成熟运营一个千亿模型,对A100等效GPU的需求量为2.8万张。根据华泰证券测算,成熟大模型的运营有望带来3169亿美元的全球AI服务器增量市场。对比来看,据IDC,2023年全球AI服务器市场规模211亿美元,预计2024-2025年CAGR将达22.7%,未来仍有较大成长空间。此外,考虑到国内对高性能芯片获取受限,AI GPU国产化也有望进一步提速。

风险提示:宏观经济波动、下游需求不及预期、测算结果可能存在偏差。

智通声明:本内容为作者独立观点,不代表智通财经立场。未经允许不得转载,文中内容仅供参考,不作为实际操作建议,交易风险自担。更多最新最全港美股资讯,请点击下载智通财经App
分享
微信
分享
QQ
分享
微博
收藏