事件:
英伟达(NVDA.US)于2月22日发布FY2023 Q4季报,第四财季营收60.5亿美元,同比-21%/环比+2%,毛利率为66.1%,同比-0.9pct/环比+10pcts。综合财报及交流会议信息,总结要点如下:
评论:
1、FY23Q4营收和毛利率符合预期,FY23全年营收同比持平毛利率同比下降。
FY23Q4营收为60.5亿美元,同比-21%/环比+2%,超过指引中值(60亿美元),毛利率为66.1%,同比-0.9pct/环比+10pcts,符合预期指引中值(66.0%)。FY23财年营收为269.7亿美元,同比持平,毛利率为59.2%,同比-7.6pcts。
2、除数据中心外其余业务均环比增长,数据中心在中国地区销售额下降。
1)数据中心:FY23Q4营收为36.2亿美元,同比+11%/环比-6%,环比下降系中国地区销售额下降,全年营收150亿美元,同比+41%;2)游戏:FY23Q4营收为18.3亿美元,同比-46%/环比+16%,环比增长主要系GeForce RTX 40系列GPU产品受到市场强烈欢迎,全年营收90.7亿美元,同比-27%;3)专业可视化:FY23Q4营收为2.26亿美元,同比-65%/环比+13%,环比增长得益于汽车和制造业行业的强劲需求,同比下降则反映了渠道库存调整的影响,预计将在今年上半年结束,全年营收15.4亿美元,同比-27%;4)汽车:FY23Q4营收为2.94亿美元,同比+135%/环比+17%,环比增长主要系人工智能汽车解决方案推动,全年营收9.03亿美元,同比+60%。
3、FY24Q1营收指引中值环比+7.42%,预计FY24数据中心市场加速增长。
FY24Q1营收指引中值为65亿美元(63-67亿美元),同比-21.57%/环比+7.42%。毛利率指引中值为66.5%(66%-67%),同比-0.62pct/环比+0.41pcts。23年税率预计为12%-14%,全年资本支出为11-13亿美元。预计 4个主要市场都将环比增长,数据中心和游戏将强劲增长,数据中心增长主要系公司多款产品即将上市且H100顺利爬坡、生成式AI将刺激CSP和初创企业的需求以及企业上云的进程将会恢复。游戏市场增长主要系预计中国的游戏市场逐渐复苏且库存调整即将结束。
4、ChatGPT引发生成式AI浪潮,即将举办的GTC将推出英伟达AI云服务。
随着ChatGPT的用户规模成长迅速,上季度围绕Hopper构建的AI基础设施以及使用 Hopper 和 Ampere推断大型语言模型火爆起来,公司认为人工智能将成为新的制造业来制造智能产品,公司预测未来10年人工智能速度会提升100万倍。公司的Hopper AI超级计算机配备了Transformer引擎和Quantum InfiniBand 网络平台,已经在全面生产中,通信运营商CSP正在竞相开放他们的Hopper云服务。在满足对NVIDIA公司GPU强劲需求的同时期待今年加速增长。公司正在与主要云服务提供商合作,提供NVIDIA AI云服务,此外,公司将在3月21日召开GTC大会介绍生成式 AI、元宇宙、大型语言模型、云计算等领域的最新进展。
风险提示:竞争加剧风险;贸易摩擦风险;行业景气度变化风险;宏观经济及政策风险。
附录:英伟达FY2023Q4业绩说明会纪要
时间:2023年2月22日
出席:
Simona Jankowski - VP, IR
Colette Kress - EVP &; CFO
Jensen Huang - Co-Founder, CEO, President &; Director
会议纪要根据公开信息整理如下:
业绩介绍:第四季度营收为60.5亿美元,环比增长2%。全年收入为270亿美元,与上年持平。
数据中心业务:
第四季度营收为36.2亿美元,同比增长11%,环比下降6%。财年收入为150亿美元,增长41%。Hyperscale营收环比增长强劲,但低于预期,因为一些云服务提供商在年底暂停重新调整其建设计划。营收收紧反映了整体宏观经济的不确定性,但只是暂时的时间问题,因为终端市场对GPU和AI基础设施的需求强劲。Networking增长,但略低于我们对通用CPU基础设施的疲软需求的预期。数据中心营收环比下降是由于中国销售额下降,符合预期,反映了新冠疫情和其他国内问题。
云服务采用的持续增长,公司正在为越来越多的快速增长的云服务提供商提供服务,包括甲骨文和GPU专用CSP。随着越来越多的企业客户转向云优先方法,去年CSP客户的收入增长明显超过了整个数据中心的收入增长。在过去的4个季度中,CSP客户推动了数据中心收入的40%左右。
公司新旗舰H-100中央GPU的采用率很高。仅在第二季度,H-100的收入就已经远高于A100,后者环比下降。这证明了H-100的卓越性能,在训练方面比A100快9倍,在推理基于Transformer的大型语言模型方面比集群快30倍。H-100的Transformer引擎及时到来,服务于大型语言模型的开发和扩展推理。
人工智能的使用正处于一个转折点。OpenAI的ChatGPT引起了全世界的兴趣,让人们能够亲身体验AI,并展示生成式AI的可能性。这些新型神经网络模型可以提高各种任务的生产力,无论是生成营销文案、总结文档、为广告或视频游戏创建图像还是回答用户问题。生成式人工智能应用程序将帮助几乎每个行业更快地完成工作。具有超过1000亿个参数的生成式大型语言模型是当今世界最先进的神经网络。NVIDIA涵盖人工智能超级计算机、算法、数据处理和培训方法,可以将这些功能带入企业。我们期待为客户提供生成式AI机会。
除了与每个主要的超大规模云提供商合作外,公司还与许多消费互联网公司、企业和初创企业合作并推动数据中心的强劲增长,并将在今年加速。
金融服务行业是公司最大的垂直行业之一,在本季度,我们宣布与德意志银行建立合作伙伴关系,以加速人工智能和机器学习在金融服务中的应用。我们正在共同开发一系列应用程序,包括虚拟客户服务代理、语音AI、欺诈检测和银行流程自动化,利用NVIDIA的完整计算堆栈,包括内部部署和云中,包括NVIDIA、AI企业软件。我们还宣布,NVIDIA在资产价格发现等应用的关键金融服务行业基准测试中获得了人工智能推理的领先结果。在网络领域,我们看到对人工智能推动的最新一代InfiniBand和HPC优化以太网平台的需求不断增长。
InfiniBand提供无与伦比的性能、延迟和网络内计算能力,是高能效云规模、生成式AI的明确选择。生成式AI基础模型大小继续以指数级速度增长,推动了对高性能网络的需求,以横向扩展多节点加速工作负载。
对于小规模部署,NVIDIA将带来其完整的加速堆栈专业知识,并将其与世界上最先进的高性能以太网结构集成。在本季度,InfiniBand引领增长,因为公司40千兆每秒的Quantum2平台在云、企业和超级计算客户的需求推动下取得了良好的开端。在以太网方面,随着客户向更高速度、下一代采用者和交换机过渡,我们每秒40GB的Spectrum4网络平台正在获得动力。
公司仍然专注于扩展软件和服务。我们发布了NVIDIA AI企业版3.0,支持50多个NVIDIA AI框架和预训练模型以及用于联络中心、智能虚拟协助、音频转录和网络安全的新工作流程。即将推出的产品包括我们的NeMo和BioNeMo大型语言模型服务,这些服务目前正在有客户抢先体验。
黄仁勋——软件和云服务:
技术突破的积累,让人工智能走到了一个拐点。生成式人工智能的多功能性和能力引发了全球企业制定和部署人工智能战略的紧迫感。然而,人工智能超级计算机基础设施、模型算法、数据处理和训练技术仍然是大多数人无法逾越的障碍。今天,我想与大家分享我们商业模式的下一个层次,以帮助每个企业客户都能接触到人工智能。
我们正在与主要服务-云服务提供商合作,提供NVIDIA AI云服务,由NVIDIA直接提供,并通过我们的上市合作伙伴网络提供,并托管在世界上最大的云中。NVIDIA AI即服务使企业能够轻松访问世界上最先进的AI平台,同时保持接近世界上最先进的云提供的存储、网络、安全和云服务。
客户可以在AI超级计算机、加速库软件或预训练的AI模型层上使用NVIDIA AI云服务。NVIDIA DGX是一台人工智能超级计算机,也是世界各地正在建造的人工智能工厂的蓝图。人工智能超级计算机的构建既困难又耗时。今天,我们宣布推出NVIDIA DGX云,这是拥有自己的DGXAI超级计算机的最快、最简单的方法,只需打开浏览器即可。NVIDIA DGX Cloud已经通过Oracle云基础设施和Microsoft Azure,Google GCP和其他产品提供。
在AI平台软件层面,客户可以访问NVIDIA AI企业版,用于训练和部署大型语言模型或其他AI工作负载。在预训练的生成式AI模型层面,公司将向企业客户提供可定制的AI模型NeMo和BioNeMo,以构建专有的生成式AI模型和服务。通过公司的新业务模式,客户可以在私有云或任何公共云上使用NVIDIA的全面AI计算。公司将在即将举行的GTC活动上分享更多有关NVIDIA AI云服务的细节,请务必关注。
游戏业务:
公司游戏业务全财年收入为90.7亿美元,下降27%。其中四季度游戏业务收入为18.3亿美元,环比增长16%,同比下降46%。公司游戏业务第四季度环比增长是由于Ada Lovelace架构的40系列GeForce RTX GPU产品受到市场强烈欢迎。而业务同比下降反映了渠道库存调整的影响,不过该影响已经基本结束。在第四季度,大多数地区的需求都很稳定,尽管中国市场受到了COVID干扰,但公司对该市场早期复苏的迹象感到鼓舞。
游戏玩家对新推出的RTX4090、4080和4070 Ti台式机GPU反应热烈。许多零售和在线店铺的库存被抢购一空,并且旗舰型号RTX 4090迅速在Steam上人气爆棚,成为AI架构的领头羊,反映了游戏玩家对高性能图形的渴望。本月早期,基于Ada架构的第一批游戏笔记本电脑已经上市,提供了NVIDIA迄今为止在性能和功率效率方面最优质的产品。公司首次将极致游戏显卡性能带到14英寸的笔记本电脑中,以此进入该快速增长的细分市场。此外,公司首次通过第五代Max-Q技术的功率效率,将最高性能的90级别GPU带到笔记本电脑中。RTX40系列GPU将为170多款笔记本电脑提供动力,为开学季做好准备。当前市场拥有超过400款游戏和应用程序支持NVIDIA的RTX技术,用于实时光线追踪和AI驱动的图形。产品采用公司第三代AI驱动图形DLSS 3,可大幅提升性能。对于最先进的游戏之一:赛博朋克2077,使用DLSS 3后可在4K分辨率下将帧速率性能提高3到4倍。
GeForce NOW云游戏服务在用户,游戏和性能等多个方面不断扩展。目前,该服务在100多个国家拥有超过2500万会员。上个月,新的会员套餐启用了RTX 4080图形处理能力,开通业务的会员可以从云端流式传输,达到最高240帧,拥有全射线追踪和DLSS 3支持。近期,公司与微软宣布了一项为期10年的重要合作,将微软的Xbox PC游戏阵容带入GeForce NOW服务中,其中包括《我的世界》《光环》和《模拟飞行》等畅销游戏。而随着微软对动视暴雪的收购完成,还将新增《使命召唤》和《守望先锋》等游戏。
专业可视化业务:
第四季度收入为2.26亿美元,环比增长13%,同比下降65%,全财年收入为15.4亿美元,同比下降27%。其中桌面工作站的连续增长得益于汽车和制造业行业的强劲需求。而同比下降则反映了渠道库存调整的影响,预计该情况将在今年上半年结束。
公司的Omniverse平台受到越来越多的关注。目前该产品已经有近30万次下载,并与第三方设计应用程序建立了185个连接。最新发布的Omniverse平台具有多项功能和增强功能,包括支持4K、实时路径追踪、Omniverse Search功能(利用人工智能搜索未标记的大型3D数据库)以及适用于AWS的Omniverse云容器。
汽车业务:
公司第四季度收入达到创纪录的2.94亿美元,环比增长17%,同比增长135%。环比增长主要由人工智能汽车解决方案推动。电动汽车和传统OEM客户的新计划帮助推动了这一增长。本财年收入为9.03亿美元,增长60%。
在CES方面,公司宣布与富士康建立战略合作伙伴关系,共同开发自动化和自主驾驶车辆平台。该合作伙伴关系将提供规模化制造,以满足不断增长的NVIDIA Drive平台需求的制造能力。富士康将在其电动汽车中使用NVIDIA Drive、Hyperion计算和传感器架构。富士康将成为面向全球生产基于NVIDIA Drive Orin 的电子控制单元的一级制造商。本季度,公司还达到了一个重要的里程碑:NVIDIA Drive操作系统获得了TÜV SÜD的安全认证。TÜV SÜD是汽车行业最有经验和最严格的评估机构之一。凭借行业领先的性能和功能安全性,公司的平台满足了自主运输所需的更高标准。
利润表:第四季度GAAP毛利率为63.3%,非GAAP毛利率为66.1%。2023财年GAAP毛利率为56.9%,非GAAP毛利率为59.2%。同比,第四季度GAAP运营费用增长了21%,非GAAP运营费用增长了23%,主要是由于更高的薪酬和数据中心基础设施费用。依次来看,GAAP运营费用保持不变,非GAAP运营费用下降了1%。公司计划在未来几个季度将它们保持在这个水平上。全年GAAP运营费用增长了50%,非GAAP运营费用增长了31%。
公司以股份回购和现金股息的形式向股东返还了11.5亿美元。截至第四季度末,公司的股份回购授权还剩下约70亿美元,有效期截至2023年12月。
FY2024Q1指引:
公司预计,在数据中心和游戏的强劲增长带动下,4个主要市场平台都将环比增长。预计收入为65亿美元, 上下浮动2%。GAAP和非GAAP毛利率分别预计为64.1%和66.5%,上下浮动50个基点。预计GAAP运营费用约为25.3亿美元,非GAAP运营费用约为17.8亿美元。预计GAAP和非GAAP其他收入和费用将约为5000万美元,不包括非附属资产剥离的收益和损失。预计GAAP和非GAAP税率将为13%,误差在正负1%之间,不包括任何离散项目。首季度资本支出预计约为3.5亿至4亿美元,全财年2024年预计在11亿至13亿美元之间。更多财务细节已包括在CFO评论和公司IR网站上提供的其他信息中。
Q&A:
Q:基于您的讲解,软件和云策略的货币化效应是公司关键焦点之一。我认为企业AI软件套件的价格约为每个CPU插槽6000美元,可能贵公司对云消费模型有稍微更高的定价指标。因此,想请问您如何考虑未来几个季度货币化对公司商业模式的贡献,你们已经谈论过大概几亿美元?你能否详细说明一下?
A:我认为这也将是公司GTC上的一个重要议题和讨论。就公司的软件计划而言,即使在公司的Q4业绩中,公司继续保持增长,公司在与合作伙伴合作、加入更多合作伙伴和增加我们的软件方面取得了相当大的进展。您的观点是正确的,公司曾经谈到公司的软件收入达到数亿美元。而且,随着公司能力提升,在Q4可能是创纪录的水平。
首先,NVIDIA AI本质上是当今AI系统的操作系统。从数据处理到学习、训练、验证和推理都始终贯穿其中。因此,这个软件体系得到了完全加速,可以在任何云、本地运行,并支持公司所知道的每个框架和模型,并且其加速效果也非常显著。通过使用NVIDIA AI,机器学习操作将会更高效,更具成本效益。公司今日宣布将NVIDIA基础设施托管在全球领先的云服务提供商中,加速企业利用NVIDIA AI企业版的能力。这加速了人们对机器学习流程的采用。这是一个非常广泛的软件体系。虽然它并未广泛部署在企业中,但公司相信通过将所有东西都托管在云端,从基础设施到操作系统软件,再到预训练模型,公司可以加速企业对生成式AI的采用。因此,我们对我们商业模式的这个新的扩展部分感到兴奋。公司真正相信它将加速软件的采用。
Q:数据中心也可以在第一季度同比增长?对于生成式人工智能的计算密度,如果非常高,它是否会将市场规模限制在少数超大规模用户?而在另一个极端,如果市场变得非常大,那么难道它不会吸引更多来自于ASIC或其他加速器的与NVIDIA竞争的公司吗?
A:公司预计数据中心将会有强劲的环比增长,并且公司也预计公司的数据中心将会有同比增长。公司预计今年将会是一个很好的年份,公司的数据中心同比增长很可能会超过Q1。
大型语言模型之所以被称为“大型”,是因为它们相当大。在过去十年中通过新处理器、新系统、新互连、新框架和算法以及与数据科学家和AI研究人员合作开发新模型,我们将AI的处理速度相比于之前加速了百万倍。在开始时需要几个月的时间,现在只需要约10天。当然,您仍需要大型基础设施。即使是这样,公司引入了Hopper,它具有转换引擎、新的NVLink交换机和新的InfiniBand每秒400千兆的数据传输速率,公司正在处理大型语言模型方面实现又一次飞跃。因此,我认为一是通过将NVIDIA的DGX超级计算机与NVIDIA DGX云结合,公司将使这种基础设施的访问方式更加民主化。并通过加速训练能力,使这项技术和能力变得非常易于访问。二是需要开发的大型语言模型或基础模型数量相当多。不同的国家具有不同的文化和知识体系。对于不同的领域,无论是图像、生物学还是物理学,每个领域都需要自己的基础模型。一旦有了大型语言模型,公司可以用来加速所有其他领域的发展。
此外,全球很多公司拥有自己的专有数据。最有价值的数据是专有的,属于公司内部信息。这些数据也将首次用于训练新的AI模型。因此,公司的战略和目标是将DGX基础设施放在云端,为世界上每一个想要创建专有数据等的企业、公司提供专有模型。
关于竞争,公司长期参与市场竞争,方法和计算架构在多个方面都大不相同。1)模型是通用的,可以将它用于训练、推理,其他任何类型的模型。模型支持每个框架和云,包括从云到私有云,云到本地,一直到边缘,模型可以成为一个自治系统,这种架构允许开发人员开发他们的AI模型并将其部署到任何地方。2)一个重要观点是没有AI本身是一个应用程序,是预处理部分和后处理部分将其变成一个应用程序。大多数人不谈论预处理和后处理,然而,预处理和后处理通常会占用总工作量的一半到2/3。因此,通过加速整个端到端管道,从预处理一直到后处理,我们能够加速整个管道而不是仅仅一半。加速的极限,即使只加速一半的工作量就立即通过,速度也是原来的两倍。然而,如果加速整个工作负载,可能会将工作负载加速10倍、20倍、50倍,这就是为什么当听说NVIDIA加速应用程序时,通常会听到10倍、20倍、50倍的加速。原因在与我们加速不仅限于深度学习部分,而是使用CUDA来加速从端到端的一切。因此,我们计算的普遍性——加速计算平台覆盖每个云到边缘,使得架构容易访问并产生差异化。最重要的是,对于所有服务提供商,公司的架构会带来最低的运营成本,主要原因是进行端到端的加速并获得大吞吐量,并会带来系统高利用率。
Q:在 ChatGPT发布之后,公司面向Hyperscler和大型企业客户的业务将如何演变?当公司考虑具有变革性引擎的Hopper和具有高带宽内存的Grace时,如何看待过去几个月来带的这两个产品的增长前景?
A:ChatGPT是一个优秀的项目,其内部模型以其多功能性和能力让每个人都感到惊讶,但这在我们的行业内是众所周知的。单AI模型可以执行从未受过训练的任务和技能。同时,这个语言模型不只是说英语,而且可以翻译,也不只是说人类语言,比如可以由人类语言提示输出Python、Cobalt,或者输出用于Blender的Python,一个3D程序。所以这是一个为另一个程序编写程序的程序。
市场现在意识到也许人类语言是一种非常好的计算机编程语言,已经使计算机编程民主化,适用于每个用人类语言解释要执行的特定任务的人。这个新的计算平台可以接受任何提示,并将其翻译成一系列可以直接处理的指令,或者等待用户决定是否要处理它。
因此,这种类型的计算机在其应用中是完全革命性的,因为它能实现民主化编程。每个CSP、互联网服务提供商、软件开发商,都会受到震撼或感到警惕,或者致力于将ChatGPT集成到应用程序或服务中,且该潮流是全球性的。
在过去的60天里,围绕Hopper构建的AI基础设施以及使用 Hopper 和 Ampere推断大型语言模型刚刚火爆起来。因此,无论我们对今年的看法如何,我们今年已经发生了非常大的变化。
Q:DGX Cloud方面,市场关注服务的驱动程序以及公司使用不同的超大规模器在这些服务之上的托管计算。数据中心业务何时可能会过渡到更多的系统级业务?这意味着公司会基于Hopper、Grace销售更多的系统级产品。在接下来的2-3年内,数据中心部门的业务组合如何从销售芯片发展到系统和软件?利润率情况如何?
A:首先,数据中心业务仅在概念GPU的背景下是GPU业务,因为公司实际出售给云服务提供商的是一个计算面板,一个8 Hoppers或8 Amperes计算面板与和NVLink相连的NVLink交换机相连。该板代表1个GPU,由8个芯片连接,具有高速的芯片与芯片互连。公司对多芯片计算机的研究已有一段时间了。所以当提及GPU,人们实际会想到HGX GPU,也就是8个GPU。我们将继续这样做。真正吸引云服务提供商是托管为NVIDIA提供的基础设施,是因为公司有很多直接合作的客户,我们直接与全球10,000家AI初创公司合作,涉及各行各业。客户都非常希望至少部署到云中,或者部署到云和本地中,通常是多云。因此,通过让NVIDIA DGX和NVIDIA的基础设施在他们的云中成为全栈,我们会吸引客户到CSP,或将成为全球的云领域最好的AI销售。我们的客户现在拥有最先进的即时基础设施,团队对基础架构、加速软件、NVIDIA AI开放操作系统和AI模型都非常出色。在一个实体中,客户可以获得整个跨度的专业知识。因此,这对客户、CSP以及我们公司都是一个很好的商业模型。尽管我们将继续并继续推进DGX AI超级计算机,但在本地构建AI超级计算机确实需要时间。目前公司有能力让客户尽快启动和运行。
Q:目前公司大部分重点都放在文本上,但有些公司在视频和音乐方面进行了大量训练和模型研究,在高端的云中至少有10000个GPU,可能还有数万个GPU用于推断广泛部署的模型。在几十万个GPU中TAM增量很容易达到数百亿美元。公司去年提供的数据为3000亿美元的硬件TAM和3000亿美元的软件TAM。如何看待新的TAM是什么?
A:这些数字仍然是非常好的锚点。不同之处在于,生成式人工智能具有令人难以置信的能力和多功能性,并基于去年年中和年底发生的融合突破,我们会早晚到达那个TAM。开发计算机方式的每一个转折点,都是因为更容易使用、更容易编程和更容易访问。这发生在PC革命、互联网革命和移动云上。尤其是移动云方面,由于iPhone和AppStore,出现了500万个应用程序,并且还在不断增加。大型机应用、PC应用等都无法达到这个数量级,原因是开发和部署应用程序非常容易,一部分是云,一部分在移动设备,而且应用程序商店使得分发更容易,同样的故事现在也发生在人工智能上。ChatGPT在60、90天内达到了1.5亿的用户,人们正在用它来创造各种各样的东西。我认为现在看到的只是涌现的新公司和新应用程序的洪流。从各个方面来说,这都是一个新的计算时代。所以公司之前表达的TAM,在今天比以前更容易实现。
Q:您说H-100的收入高于A100,这是总的体量还是某一时间点,比如在2个季度的出货之后?公司与梅赛德斯奔驰的合作如何?梅赛德斯最近支出MB Drive的软件收入预期在近十年中期可能达到个位数的亿欧元,十年后达到10亿欧元。请问公司正在考虑的梅赛德斯交易软件收入的数量级如何?
A:首先,公司在第三季度开始首次发货H-100,第四季度H-100出货会大幅提升。H-100是第四季度的许多CSP的焦点,希望能在云中启动和运行。因此,第四季度A100将更少于H-100。这两种架构公司都会销售,但H-100第四季度相对强劲。关于梅赛德斯-奔驰,我们合作顺利、并积极准备量产上市。他们分两个阶段讨论软件的机会,关于可以用Drive或者用Connect做什么,准备了10年的发展周期。它与我们与想法一致,是长期合作伙伴,并会随着时间的推移分享收入。在大型奢侈品牌中,只有梅赛德斯对每一辆(从入门级到最高端车型)都安装了丰富的传感器和AI超级计算机,所以梅赛德斯的每辆汽车都将成为一个可以升级和永久更新的安装基础,这意味着庞大的创收机会,也是Ola的愿景。
Q:似乎每年都会有新的工作负载出现并推动NVIDIA的处理器或生态系统的需求,例如面部识别、推荐引擎、自然语言处理、Omniverse平台和生成式人工智能引擎。未来是否主要靠新的工作负载拉动对NVIDIA新产品的需求?您对生成式人工智能将为NVIDIA产品和服务带来的需求增长的看法要比90天前更好,是否可能有新的工作负载或新应用,可以推动需求增长到超出您目前的预期?
A:1)NVIDIA拥有一些未公开的新应用和工作负载,他们将在GTC大会上进行分享,并且这种应用会带来惊喜,这也是外界持续听到一些新应用的原因。2)NVIDIA是一个多领域的加速计算平台,它不像CPU那样完全是通用的,CPU内含95%、98%是控制单元,而仅有2%是数学单元。NVIDIA的加速平台与CPU协作工作,卸载了繁重的计算单元,但可以保证是多域的,可以加速许多不同的应用程序,包括粒子系统、流体、神经元和计算机图形等。3)客户群体非常庞大,NVIDIA的平台是全球唯一一款能够跨越云、工作站、游戏机、汽车和本地计算机的架构兼容的加速计算平台。开发人员可以在平台上获得数以百万计的CUDA专家的帮助、加速的软件及工具。此外,开发者可以在软件开发之后触达大量用户。这就是为什么NVIDIA不断吸引新应用的原因。4)CPU 计算进步的速度已经大大放缓,在我职业生涯的前 30 年里,每 5 年在大约相同的功率下性能提高 10 倍,现在已经放缓。在这个时代人们仍然有许多应用迫切地想要推向市场。通过加速计算,NVIDIA可以降低任何工作负载的功率消耗,这使得人们更加倾向于使用加速计算来实现他们的需求。这些多种多样的原因都推动着人们使用加速计算,并且不断发现新的激动人心的应用。
Q:数据中心方面,一月份季度中看到了一些建设计划的疲软,但公司给出的指引是预计在四月份和全年实现同比增长。带来这种信心的因素有哪些?是基于H-100的推广计划,生成式人工智能销售,还是新的人工智能服务模型呢?此外,企业垂直领域上情况如何?
A:公司预计Q1有同比增长,之后很可能会加速。驱动因素包括:1)多个产品周期即将进入市场,目前有H100上市了。我们预计将在今年下半年推出新产品,主要由GPU计算和网络推动。2)生成式人工智能的前景将刺激客户需求,无论是CSP还是初创企业,3)随着摩尔定律的终结,专注于人工智能,专注于加速延续是错误的。随着经济的改善,通过企业云来为企业赋能非常重要。
Q:公司提到在过去十年里训练模型方面的能力已经提高了100万倍,未来几年将如何?虽然Hopper架构能使得Transformer性能提高6倍,但一些使用大型语言模型的客户正在谈论将复杂性提高100倍,未来采取什么措施来扩大规模呢?其中多少要依赖于更大的硬件支出呢?
A:1)全世界的人工智能基础设施数量将会增长。原因是人工智能将会成为制造业,曾经人们只是制造物理产品,未来几乎每个公司都将会制造软产品,以智能的形式出现。数据中心主要是处理数据并生成新的更新模型,类似于输入原材料,基础设施对其进行处理,最终生成具有巨大价值的改良品。因此,我预计全世界将会出现各种各样的人工智能工厂,可能在云上或本地,很大或很小。2)通过新的芯片、新的互联、新的系统、新的操作系统、新的分布式计算算法、新的人工智能算法和与开发者合作创建新的模型,我相信在未来10年里,我们将会将人工智能的速度再次提升100万倍。解决这个难题必须从芯片开始,一直到数据中心,跨越网络和软件,考虑整个系统的方方面面。在公司维度上,我们可以跨越整个系统进行创新。因此,预计在未来十年中,人工智能模型和人工智能平台都会取得巨大突破。同时由于人工智能的快速增长和广泛应用,人工智能工厂将遍布全球。
总结:
Transformer、大语言模型和生成式AI的积累突破将AI的能力和多功能性提升到了一个非凡的水平。一个新的计算平台已经出现,新的公司、新的应用程序和新的解决方案正在以惊人的速度被发明。几乎每个行业的企业都在积极应用生成式AI来重构产品和业务。围绕AI的活动和热度已经相当高了,而且在显著加速。这是我们十多年来一直努力的时刻,并已经准备好迎接挑战。我们的Hopper AI超级计算机配备了Transformer引擎和Quantum InfiniBand 网络平台,已经在全面生产中,通信运营商CSP正在竞相开放他们的Hopper云服务。在满足对NVIDIA公司GPU强劲需求的同时,我们期待今年加速增长。
请不要错过即将到来的GTC大会。我们有很多新芯片、系统和软件,新的CUDA应用程序和客户、新的生态系统合作伙伴以及更多关于NVIDIA AI和Omniverse的信息。这将是我们迄今为止最好的GTC。
本文编选自“招商电子”公众号;智通财经编辑:陈雯芳