智通财经APP获悉,截至周二美股收盘,AI芯片领导者英伟达(NVDA.US)股价下跌约1%,在此之前股票研究以及市场情报提供商Edgewater Research表示,自今年年初以来,该芯片巨头的人工智能GPU芯片渠道需求展望首次出现“喜忧参半”的预期数据。在需求端,买卖双方“价格博弈”信号已经出现,尤其是一些买家选择观望,等待他们能接受的市场价格。
这家市场研究公司指出,2024年数据中心GPU出货量的渠道预测数据基本保持不变,并且基于COWOS先进封装技术的芯片供应短缺仍然将持续一段时间,特别是来自台积电(TSM.US)的芯片供应量将持续紧张。
Edgewater Research补充称,英伟达的客户们仍在试用H200和L20芯片,预计将在2024年上半年客户试用规模将增加。“客户最关心的是新品价格;(英伟达)被认为可能需要在H200等新品芯片价格的定价区间上更加灵活,尤其是某些特定产品性能降级的情况下。因此,一些客户可能倾向于暂时观望,等待他们能接受的市场价格。”Edgewater Research表示。
该公司表示,目前还不清楚为什么英伟达的人工智能GPU需求突然出现了“好坏参半”的数据预测点,不过人们猜测最有可能的原因是全新H200 AI芯片的正式推出(于上个月宣布),以及最强大竞争对手之一AMD发布号称“最强算力”的AI芯片Instinct MI300X,这一局面导致主要客户在重新考虑GPU采购计划时暂停购买,直至等到英伟达报出他们认为合理的市场价格。然而,该研究机构补充表示:“这也可能表明2024年中期的英伟达新产品潜在需求将因性能等优势而重新加速。”
AMD并未透露MI300X的定价,但AMD首席执行官苏姿丰表示,AMD的芯片必须比英伟达的芯片购买和运营成本更低,才能说服潜在大客户购买。
Edgewater Research在研究报告中写道:“令人鼓舞的是,统计渠道对英伟达数据中心地位和AI芯片需求的长期评论仍然具有建设性,英伟达旗舰产品在数据中心的应用比例仍在不断扩大,在英伟达芯片加速驱动下,无论是基于人工智能还是非人工智能应用的潜力都非常大。”
该研究机构还对英伟达的竞争对手AMD (AMD.US)和英特尔(INTC.US)的新产品发表了较为积极的看法,并指出,预计到2024年,AMD的人工智能部署将带来至少10亿美元的营收规模。英特尔旗下的各类芯片产品可能将受益于PC端需求持续复苏,因为该机构预计到2024年,个人电脑销量将同比增长2%至5%。
展望未来,AI芯片领域的竞争局势或将愈发激烈
英伟达在2023年堪称是全球股票市场最火热的投资标的,得益于去年ChatGPT横空出世引发的人工智能投资狂潮,在AI芯片领域处于毫无争议垄断地位的英伟达股价暴涨,该股在2023年的表现异常出色。今年以来,英伟达股价涨幅达到了惊人的240%。这一成就不仅令该股轻松超过美股基准指数——标普500指数(S&P 500),同时年内涨幅位列七大科技巨头之首。美股市场的七大科技巨头(Magnificent Seven)包括:苹果、微软、谷歌、特斯拉、英伟达、亚马逊以及Meta Platforms。
全球AI芯片领导者英伟达在AI芯片领域份额接近90%,AMD则远远不及英伟达,然而在AMD发布号称“最强算力”的AI芯片Instinct MI300X之后,英伟达垄断地位毫无疑问将面临来自AMD的巨大威胁。“Advancing AI”发布会上,AMD将截至2027年的全球AI芯片市场规模预期,从此前预期的1500亿美元猛然上修至4000亿美元,而2023年AI市场规模预期仅仅为300亿美元左右。华尔街大行花旗预计明年AI芯片市场规模将在 750亿美元左右,同时预计AMD能够占据 10% 左右的市场份额。
除了面临来自AMD的竞争压力,英伟达还面临各大云服务巨头自研AI芯片带来的竞争压力。比如谷歌近期宣布推出新版本的TPU芯片TPU v5p,旨在大幅缩减训练大语言模型时间投入,v5p是今年早些时候全面推出的Cloud TPU v5e的更新版本。全球第一大公有云巨头——亚马逊旗下的AWS近期宣布推出为生成式AI和机器学习训练而设计全新自研AI芯片AWS Trainium2,性能比上一代芯片提高到4倍,可提供65ExaFlops超算性能。微软近期宣布推出第一款定制的自研CPU 系列 Azure Cobalt 和AI加速芯片 Azure Maia,后者是微软首款人工智能芯片,主要针对大语言模型训练,预计将于明年初开始在微软Azure数据中心推出。
据了解,有着“OpenAI劲敌”之称的人工智能初创公司Anthropic已经成为首批使用谷歌TPU芯片的公司之一,其他在人工智能领域备受瞩目的初创公司,如Hugging Face和AssemblyAI也在大规模使用谷歌TPU芯片。据媒体报道,Anthropic还计划用Trainium2芯片构建新的AI大模型。
从技术层面上来看,与英伟达A100/H100等通用型GPU 相比,谷歌TPU设计初衷正是专注于深度学习领域,尤其是全面加速神经网络训练和推理效率。英伟达的A100和H100,它们属于广义上的通用型GPU,而不仅仅局限于深度学习和人工智能领域。这些GPU具有通用计算能力,适用于多种计算工作负载,包括但不限于:高性能计算(HPC)、深度学习以及大规模数据分析。
与英伟达通用型GPU相比,谷歌TPU采用低精度计算,在几乎不影响深度学习处理效果的前提下大幅降低了功耗、加快运算速度,尤其对于中型LLM设计者来说完全够用,因此他们可能不需要依赖高性能的英伟达A100/H100。同时,TPU 使用了脉动阵列等设计来优化矩阵乘法与卷积运算。谷歌TPU追求专注于AI训练和推理,因此精简化部分设计架构,这也是TPU功耗、内存带宽和FLOPS都明显低于英伟达H100的部分原因。