智通财经APP获悉,英伟达和xAI公司共同表示,沙特阿拉伯正在建设的一座大型AI数据中心设施不久后将配备数十万颗英伟达高性能AI芯片,而特斯拉CEO埃隆·马斯克旗下的AI超级独角兽——xAI将成为其首位大型客户。此外,除了购置英伟达AI GPU算力集群,沙特“主权AI系统”Humain还将斥巨资购入AMD以及高通所开发的AI芯片以及AI软硬件协同系统。
xAI创始人马斯克和英伟达首席执行官黄仁勋在周三出席了于华盛顿特区举行的美沙投资论坛。双方的这一最新公告是在此前深度合作基础上进一步加速推进。今年5月,英伟达曾表示,将向沙特的Humain数据中心提供耗电量达500兆瓦的AI芯片算力集群。
总部位于沙特的这家主权财富基金所支持的AI初创公司Humain同样表示,这一声明是在5月达成的合作基础上进一步延伸。在美东时间周三,Humain方面表示,该项目将包括至少大约60万颗英伟达AI芯片,主要以Blackwell/Blackwell Ultra架构AI GPU算力集群为主。
近期风头正盛的AI初创公司Humain于今年早些时候成立,隶属于沙特阿拉伯主权财富基金——沙特公共投资基金(Saudi Public Investment Fund),堪称是全球“主权AI系统”的最佳典范。在黄仁勋与美国总统唐纳德·特朗普一同访问沙特时,最初在5月宣布了建设该大型数据中心的沙特AI雄心壮志雏形,未来还将采购来自AMD与高通的AI芯片。
“你能想象吗,一家营收大约为0亿美元的刚刚创立的AI初创公司,现在要为马斯克建一座超大规模AI数据中心。”黄仁勋在华盛顿接受媒体采访时说道。
主权AI大势来袭
这座设施是英伟达所谓“主权AI”(sovereign AI)的最显著案例之一。“AI芯片霸主”英伟达的高管们曾多次公开表示,各国政府将越来越需要建设用于AI训练/推理的主权级别超大规模AI数据中心,以保护其国家安全和文化。这也意味着,在少数几家超大规模云计算厂商之外,英伟达昂贵AI芯片的潜在市场可谓极为庞大。
英伟达CEO黄仁勋在今年多次提到“主权AI”,暗示国家级人工智能硬件需求激增。因此,除了向超大规模云计算服务商,比如微软和亚马逊以及谷歌提供AI GPU,英伟达现在也在努力寻求业务多元化,“主权AI”无疑是黄仁勋最重视的领域之一。
黄仁勋在接受采访时曾经表示,包括印度、日本、法国和加拿大在内的国家都在谈论投资“主权级别人工智能系统”的重要性。“从他们的自然资源,再到独家的保密数据库,被视作应该为他们的国家进行提炼和生产。对主权人工智能能力的认可是全球性的理念。”
而英伟达凭借“CUDA软硬件协同平台+高性能AI GPU”共同构成的无比强大护城河以及AI开发者生态,英伟达当前需求最为火爆的Blackwell/Blackwell Ultra架构 AI GPU无疑成为全球各政府首选的AI底层基础硬件。
英伟达周三公布的最新财报显示,下一季度的营收展望超出华尔街预期,且英伟达Q3总营收同比激增62%,达到570亿美元这一历史最高营收规模;随着全球布局AI的浪潮如火如荼,英伟达数据中心业务部门第三财季实现营收512亿美元,同比激增66%,环比增长25%,可谓全面击溃近期风靡市场的“AI泡沫论调”,在极大程度上缓解了股票市场投资者们对前所未有的全球AI支出热潮即将大举退潮的担忧情绪。
英伟达强劲业绩报告凸显出,OpenAI、xAI、Anthropic 以及Palantir等AI应用端领军者,抑或聚焦于“主权AI系统”的各大政府部门继续斥巨资建设AI数据中心,全球布局人工智能的这股狂热浪潮未出现丝毫的消退迹象。
“关于人工智能泡沫的说法很多,但从我们的角度来看,我并未看到泡沫,关于AI算力需求所有的实际情况截然不同。”黄仁勋在业绩电话会议上表示。“最新一代Blackwell架构AI GPU销量远超预期,云端GPU已售罄,AI训练和推理的计算需求持续加速增长,均呈指数级增长。我们已进入AI时代的良性循环。”
黄仁勋出现在一场由美国总统特朗普支持的重大投资活动上,也进一步表明本届政府对AI的重点关注。随着英伟达管理层积极游说以获取未来向中国出口AI芯片的白宫许可证,黄仁勋已经与这位重返白宫的美国总统逐渐熟络。
在宣布这一协议时,马斯克——他在特朗普第二届政府早期是一位重要人物,在提到AI数据中心规模时短暂口误,将其按功率单位兆瓦说错,错误将兆瓦表达成吉瓦。他随后不久开玩笑表示,计划将数据中心搞成大1000倍的方案“只能以后再说了”。“那得花上大概八万亿美元。”马斯克当时打趣道。
不仅与英伟达合作! Humain还将携手其他芯片巨头共创AI盛世
据了解,Humain不仅配置英伟达高性能AI GPU。英伟达长期以来最强劲竞争对手——AMD,以及高通公司(Qualcomm)也将向Humain公司大规模销售AI芯片以及AI软硬件协同系统。AMD 首席执行官苏姿丰(Lisa Su)和高通首席执行官安蒙(Cristiano Amon)均出席了本周特朗普政府为沙特王储穆罕默德·本·萨勒曼举办的国宴,在宴会结束之后,王储表示,沙特对美国的投资将从6000亿美元提升至1万亿美元。
Humain表示,预计到2030年,AMD将提供可能高达1吉瓦电力功率的AI芯片算力集群。该公司表示,将提供其用于AI训练/推理的下一代AI算力集群设备——Instinct MI450 AI GPU集群。AMD则补充表示,思科公司(Cisco)将为大型数据中心提供额外的核心基础设施。
据悉,MI450性能相比AMD上一代 MI300X / MI350X,堪称“内存怪兽”级别的AI性能跃迁,工艺制程方面,采用台积电2nm(N2)最先进制程,基于CDNA 5先进架构,显存带宽相比MI300X,从5.3 TB/s大幅跃升至19.6 TB/s,显存容量从192GB跃升至432GB。对 OpenAI 这种正在做超大规模多模态+超长上下文 LLM 的最大型玩家来说,超大显存 + 超大带宽的价值,很多时候比单卡多几TOPS算力更具性价比,并且对于OpenAI等AI应用开发者们来说,这也是在英伟达Blackwell AI GPU体系之外,再筑一条以“超大显存/带宽+更先进制程”为核心的第二AI GPU算力战线。
高通则计划向Humain销售其10月首次发布的全新数据中心高性能AI芯片,名为AI200以及AI250。高通表示,Humain将部署电力功率规模约为200兆瓦的高通芯片。
高通早在2019–2020 年就推出过面向数据中心/边缘推理的 Cloud AI 100 系列(后续有 Cloud AI 100 Ultra),此次重磅新推出的AI200 / AI250—首次把产品做成机架级(rack-scale)方案,单卡最高768GB LPDDR、重点面向AI大模型高能效推理,并宣称将能够通过体系结构(如 near-memory compute)能够大幅降低AI数据中心运营商们的AI推理算力集群“总拥有成本”(TCO)。
高通近期新发布AI200/AI250两款AI推理加速器以及对应的整机/机架级AI算力集群解决方案,则自2026年开始,有望带动数据中心芯片业务成为高通业绩增长的全新“超级引擎”。AI200/AI250 面向AI数据中心机房级别AI推理算力集群,属于AI专用加速器(AI ASIC)技术路线思路,目标对标谷歌TPU;AI200/AI250 和谷歌TPU 同属“ASIC专用推理/训练加速器”技术家族(高通强调推理与TCO/能效)。