< 黄仁勋解读英伟达财报:新工业革命拉开帷幕AI芯片将保持每年一更新_智慧地灾_华体育app官网登录|华体会手机版
2024-05-25 智慧地灾

  黄仁勋强调行业转型引发变革,新工业革命已开始,人工智能推动生产力和效率革命性提升;

  生成式AI已经扩展到消费互联网公司和各个行业,包括主权人工智能、汽车和医疗保健领域,创造了多个价值数十亿美元的垂直市场;

  英伟达在中国市场的业务相较于过去会降低,但仍承诺尽最大努力服务客户和市场,并尽所能提供最佳服务;

  英伟达保持AI芯片一年一次的更新节奏,也将加快其他所有芯片的更新速度,以适应这一节奏。

  腾讯科技讯 5月23日消息,据国外新闻媒体报道,英伟达周三盘后发布了该公司2025财年第一财季财报。财报显示,财报公司第一财季营收260亿美元,同比增长262%,超出华尔街平均预期的246.5亿美元;净利润148.1亿美元,同比上升628%;每股盈利为5.98美元,超过华尔街平均预期的5.59美元;毛利率增至78.4%,超过去年同期的64.6%和上一季度的76%。得益于营收和利润均超出预期,英伟达股价在盘后交易中大涨,首次突破每股1000美元大关。

  财报发布后,英伟达首席执行官黄仁勋与首席财务官科莱特·克雷斯(Colette Kress)共同出席电话会议,在解读财报的同时,回答了华尔街分析师的提问。黄仁勋指出,整个行业转型正引发深远变革,新工业革命已拉序幕。同时,人工智能正推动生产力和效率的革命性提升,同时带来成本和能源效率优化及新的收入机会。英伟达已经为马上就要来临的增长浪潮做好了准备。以下为黄仁勋在电话会议中对英伟达财报的解读,以及对华尔街分析师问题的答复。

  整个行业的转型正在引发一场深远的变革。我们正处于下一次工业革命的起点。许多企业与国家正联手英伟达,将传统数据中心的万亿美元资产转向加速计算,并着手打造一种新型的数据中心--人工智能工厂(AI Factories),以生产一种前所未有的商品:人工智能。

  人工智能正以其强大的生产力,为几乎所有行业带来革命性的效率提升,帮企业在成本和能源消耗上实现优化,同时开辟新的收入渠道。云服务提供商(CSPs)作为首批采纳生成式人工智能的先锋,已经通过英伟达的技术,加速了工作负载的处理,节省了大量资金和电力。英伟达Hopper所生成的Tokens,为其人工智能服务创造了新的收入来源。

  随着对生成式人工智能训练和Hopper平台上推理需求的日渐增长,英伟达数据中心业务也迎来了强劲且加速的增长。模型正在学习怎么样成为多模态的,能够理解文本、语音、图像、视频和3D内容,并掌握推理和规划的能力。英伟达的推理工作负载随着生成式人工智能推理的增长而明显提升,快速且大规模的Tokens生成任务变得极其复杂。

  这场由AI驱动的变革,正在从基础设施到全栈计算平台的每一个层面上发生,它将改变计算机交互的每一次体验。我们正在从当前的信息检索模型,迈向一个以生成答案和技能为核心的计算模型。AI将理解上下文和我们的意图,具备知识、推理、规划和执行任务的能力,这标志着我们对计算工作方式及计算机功能的根本性重塑。

  从通用CPU到GPU加速计算,从指令驱动的软件到意图理解模型,从信息检索到技能执行,我们在工业层面上,也从生产软件转变为生成Tokens,即数字智能的制造。Tokens的生成将推动人工智能工厂的多年建设。

  超越云服务提供商,生成式AI已经扩展到消费互联网公司和各个行业,包括主权人工智能(Sovereign AI,即一个国家利用自身的基础设施、数据、劳动力和商业网络生产人工智能的能力)、汽车和医疗保健领域,创造了多个价值数十亿美元的垂直市场。Blackwell平台的全面投产,为处理万亿参数规模的生成式人工智能奠定了基础。

  结合Grace CPU、Blackwell GPU、Link Quantum、Spectrum网络交换机和高速互连技术,以及丰富的软件和合作伙伴ECO,我们也可以提供比以往更全面、更丰富的人工智能工厂解决方案。Cyromax为我们开辟了一个新的市场,将大规模人工智能引入以太网上的数据中心。

  NVIDIA NIM是我们的新软件产品,它提供企业级优化的生成式人工智能,能够无处不在地运行,从云端到本地数据中心,再到RTX iPC。通过我们从Blackwell到Spectrum X再到NIM的广泛的生态系统合作伙伴网络,我们已为下一波增长做好了充分准备。

  我想深入了解Blackwell目前已经全面投产的情况。这是否意味着产品已经过了样品阶段?如果是这样,这将如何影响发货和交付时间?对于客户来说,产品投产又意味着什么?

  我们的Blackwell产品将在第二季度开始发货,并计划在第三季度增加产量,预计客户将在第四季度建立起他们的数据中心。

  关于Blackwell与Hopper部署的对比,特别是考虑到系统的特性和对GB的巨大需求。这次部署与Hopper有何不同?我之所以这样问,是因为大规模液冷技术此前尚未实施,它在节点层面和数据中心内部都带来了一些工程挑战。这些复杂性是否会延长过渡期?你如何看待这一过渡过程?

  Blackwell是一个多配置的平台,不仅仅是一个GPU。它支持风冷、液冷、X86和Grace等多种配置。此外,它还包括Infinite Band和Spectrum X技术,以及我在GTC上展示的大规模MV链接域。对一些客户而言,他们将基于现有的数据中心安装基础,从Hopper的H100过渡到H200,再到Blackwell的B100。Blackwell系统被设计为与现有系统电气和机械上向后兼容。当然,运行在Hopper上的软件堆栈也将在Blackwell上运行得非常出色。

  我们一直在与整个生态系统合作,为液冷技术做准备,并已就Blackwell与生态系统进行了长时间的讨论。包括云服务提供商、数据中心、原始设备制造商、系统制造商,以及供应链中的液冷和数据中心供应链,没有人会对Blackwell的到来及其我们希望交付的能力感到意外。

  英伟达如何确保产品得到充分利用,并且没有因为供应紧张、竞争或其他因素导致的提前采购或囤积行为?英伟达在系统中建立了哪些检查机制,以使我们相信货币化能够跟上非常强劲的发货增长?

  从宏观角度来看,数据中心对GPU的需求极为旺盛。我们每天都在努力满足这一需求。原因在于,像ChatGPT、GPT-4等现在正转向多模态,还有Gemini的增长,以及Anthropic等公司的工作,所有云服务提供商都在积极消耗市场上的每一颗GPU。

  还有大约15,000到20,000家生成式人工智能初创公司,它们在各种领域活跃。从多媒体到各种设计工具应用、生产力应用、数字生物学,以及AV行业向视频的转变,以便他们可以训练端到端模型,扩大自动驾驶汽车的操作领域。这个列表非常不寻常。我们实际上正在竞跑,客户正在向我们施加压力,要求我们尽快交付系统并建立起来。无论如何,需求非常高,它超出了我们的供应。长远来看,我们正在完全重新设计计算机的工作方式。这是一个平台转变,当然,它过去被比作其他平台转变。但时间将清楚地证明,这比以往的平台转变要深远得多。原因是计算机不再仅仅是一个基于指令的计算机,它是一个理解意图的计算机。

  它理解我们与它的互动方式,但它也理解我们的意思,我们要求它做什么,并且有能力进行推理、迭代处理计划并给出解决方案。因此,计算机的每一个方面都在以一种方式发生变化,即它不再检索预录文件,而是现在生成与上下文相关的智能答案。这将改变全球的计算堆栈。你在Build大会上看到的,实际上,甚至PC计算堆栈也将被彻底改革。这只是我们实验室工作的开始,以及我们与全球各地的初创公司、大公司和开发者合作的事情,未来将是非凡的。

  基于你刚才提到的强劲需求,市场对H200和Blackwell产品有巨大的需求。你是否预计在从Hopper的H100过渡到这些产品时会出现任何暂停?人们会等待这些新产品发布吗?或者你认为对H100的需求足以维持增长吗?

  我们预计Hopper的需求将在今年第三季度持续增长,并且我们预计在一段时间内需求将继续超过供应。随着我们现在过渡到H200和Blackwell,每个人都急于让他们的基础设施上线,原因是他们正在节省资金并赚钱,他们希望尽快做到这一点。

  关于竞争的问题,据悉英伟达的众多云客户近期宣布了新项目或对其现有内部项目进行了更新,这些项目与英伟达的业务同步推进。从中期到长期来看,这些客户作为竞争对手的地位将如何发展?他们是否主要聚焦于解决内部工作负载,还是有可能拓展到更广泛的领域?未来他们将面对哪些挑战?

  英伟达在多个关键领域与竞争对手有所区别。首先,英伟达的加速计算架构为客户提供了全面处理其整个工作流程的能力,这包括从非结构化数据处理到训练准备,再到结构化数据处理和数据帧处理,直至训练和推理阶段。推理技术已经发生了根本性变革,从简单的猫脸检测转变为生成猫的每一个像素,这种生成过程代表了一种全新的处理架构,这也是Tensor RTLM广受好评的原因之一。

  英伟达在相同芯片上实现了性能的三倍提升,这反映了公司架构和软件的深度与丰富性。英伟达的技术可以应用于从计算机视觉到图像处理,再到计算机图形学,以及所有计算模式。在当前计算成本和能源通胀问题日益凸显的背景下,加速计算成为了一种可持续的前进方式。加速计算不仅能够帮助用户节省计算成本,还能有效节约能源。因此,英伟达平台的多功能性为数据中心带来了最低的总体拥有成本(TCO)。

  其次,英伟达在每个云平台上都有所布局,为寻找开发平台的开发者提供了一个始终可靠的起点。无论是在本地还是云端,无论计算机的大小和形状如何,英伟达几乎无处不在,这构成了选择英伟达的第二个理由。

  第三个理由与英伟达构建人工智能工厂的事实密切相关。人工智能不仅仅是一个芯片问题,它是一个系统性问题。人工智能的发展不依赖单一的大型语言模型,而是一个由众多大型语言模型共同工作的复杂系统。英伟达构建的系统使我们能够优化所有芯片作为一个整体协同工作,实现软件的系统化运行,并在整个系统中进行优化。

  以具体的数字为例,如果你拥有一个价值50亿美元的基础设施,并且通过提升性能实现了两倍的增长--这是英伟达经常实现的成果--那么,性能提升所带来的价值增长将达到10亿美元,远超数据中心内所有芯片的成本。因此,这种价值是非常显著的。这正是为何性能在当今至关重要的原因。在最高性能也代表着最低成本的时代,因为支撑这些芯片的基础设施成本高昂,数据中心的运营需要巨额资金,包括人员、电力和房地产等,所有这些成本累积起来。因此,最高性能也意味着最低的总体拥有成本。

  在数据中心行业沉浸多年,我见证了无数技术革新,但英伟达推出新平台的速度之快,确实前所未见。其产品在性能上的飞跃尤为显著:训练性能提升了5倍,推理性能更是高达30倍,这样的成就无疑是震撼人心的。然而,这种迅猛的发展速度也带来了一个挑战:客户刚刚投入巨资购买的新一代产品,很快就可能面临竞争力不足的问题,这比产品的折旧周期要快得多。面对这种情况,我们该如何思考?

  非常感谢你的问题。我想强调几个关键点。首先指出,客户在数据中心建设上的进度各不相同,有的刚刚起步,有的则接近完成。对于那些刚开始建设的客户来说,他们有机会迅速采纳新技术。Blackwell平台的到来,将为他们带来巨大的飞跃。而Blackwell之后,英伟达还有更多创新蓄势待发,目标是保持每年一次的创新节奏。英伟达希望客户能够清晰地看到公司的未来路线图,并根据自己的需求做出明智的决策。由于大多数客户仍处于早期建设阶段,他们需要继续推进建设,并准备迎接即将到来的大量新芯片。通过持续建设和性能平均化,他们将逐步适应新技术。

  其次,时间的价值不可估量。建立数据中心的速度和缩短训练时间至关重要。第一个达到重大技术里程碑的公司宣布一项突破性的人工智能技术,而紧随其后的公司可能只能宣布一项微小的改进。因此,成为不断推出突破性技术的领导者,而不是仅仅提供微小改进的跟随者,是至关重要的。

  这种竞争在多家企业中上演,因为技术领导地位对于企业的长远发展至关重要。企业需要信任并愿意在英伟达的平台上构建,相信他们选择的平台将持续进步和完善。领导地位和训练时间的重要性不言而喻。例如,如果能提前3个月完成项目并开始训练,那么这3个月的时间就是一切。这就是为什么我们目前正在迅速部署Hopper系统,因为下一个技术高峰即将到来。

  最后,我想说的是,英伟达之所以能够快速进步,是因为我们拥有全面的数据中心,能够监控、测量并优化一切。我们清楚地知道所有的瓶颈在哪里,不是在猜测,也不是仅仅制作漂亮的PPT。我们交付的系统在规模上表现卓越,因为我们构建了整个系统。

  英伟达构建了整个人工智能基础设施,然后根据客户的喜好将其解构并集成到他们的数据中心中。我们知道系统将如何表现,知道瓶颈在哪里,知道如何与客户合作优化,并帮助他们改进基础设施以实现最佳性能。这种对整个数据中心规模的深入理解,是英伟达今天与众不同的根本原因。英伟达从头开始构建每一个芯片,我们确切地知道整个系统中的处理是如何进行的。因此,我们能够准确预测每一代产品的性能,并帮助客户从中获得最大价值。

  你曾经提出,通用计算生态系统往往在每个计算时代中占据主导地位,因为它们能够适应多样的工作负载,并在计算需求下降时实现更高的利用率。这似乎是你推动建立基于CUDA的通用GPU生态系统,用于加速计算发展的原因之一。我的问题是:目前,推动对英伟达解决方案需求的工作负载主要来自神经网络的训练和推理,这在表面上看起来是一类有限的工作负载,它们似乎更适合定制化的解决方案。那么,通用计算框架是否因此面临更大的风险,或者这些工作负载是否具有足够的多样性或快速的演变,以支撑这种历史上的通用框架?

  加速计算虽然功能强大,但我不认为它属于通用计算范畴。例如,我们并不擅长运行那些专为通用计算设计的电子表格程序。操作系统的控制循环代码对于英伟达的加速计算来说,并不是最佳选择。我更倾向于用“多功能”来描述英伟达的平台。多年来,我们能够加速的应用程序领域非常广泛,尽管它们在某些方面存在显著差异,但也有很多共同点。它们都能够并行运行,且都是高度线%的运行时间,这些都是加速计算的典型特征。

  英伟达的平台之所以多功能,并且我们还设计了整个系统,是因为在过去大约十年的时间里,我们见证了大量初创公司的崛起。这些公司由于架构的脆弱性,在生成式人工智能或多模态模型等新技术出现时,往往难以适应。随着大语言模型的涌现,它们需要记忆功能以维持对话和理解上下文,这时就凸显出英伟达平台多功能性的重要性。

  每一次在生成式人工智能和人工智能领域的进步,都强调出拥有一个不仅仅为单一模型设计的系统的重要性。我们需要的是一个能够适应整个领域需求、遵循软件基本原则的系统。软件将继续发展,不断变得更好、更庞大。我们坚信,这些模型将在未来几年内轻松扩展数百万倍,这是基于充分的理由。我们对此充满期待,并且已经做好了准备。因此,我们平台的多功能性至关重要。如果你的系统过于脆弱、过于特定,那么你还不如去构建一个FPGA或ASIC。但那并不是真正意义上的计算机。

  我感到有些好奇,在当前供应受限的背景下,您如何看待中国市场对版H20的需求?我猜想,该产品可能会面临巨大的市场需求。同时,英伟达显然也在努力通过其他Hopper系列产品来满足客户。能否详细阐述对下半年的展望,包括对销售和毛利率的可能影响?

  关于你提到的H20以及不同Hopper产品之间供应分配的问题,我可能没有完全听清。但我想说,我们始终致力于尊重并尽最大努力服务每一位客户。确实,我们在中国市场的业务相较于过去有所下降。这主要是因为技术出口限制,而且中国市场的竞争也变得更加激烈。尽管如此,我们仍然承诺尽最大努力服务客户和市场,并尽我们所能提供最佳服务。总体而言,我们之前提到的供需失衡问题,适用于整个市场,特别是在年末,H200和Blackwell产品的需求将尤为突出。

  我想进一步了解您刚才提到的GP200系统。目前看来,市场对这些系统的需求非常旺盛。历史上,英伟达销售了大量的HGX和GPU,而系统业务则相对较小。我很好奇,为什么现在你预见到对系统的需求会如此强劲?这是否仅是因为总体拥有成本(TCO)的考量,还是有其他因素,比如架构的优势?

  实际上,我们销售GB200的方式与我们解构产品的方式相同。我们合理地解构所有组件,并将其集成到计算机制造商的产品中。今年,我们将推出100多种不同的专为Blackwell设计的计算机系统配置,这一数量是前所未有的。Hopper在其高峰时期也只有一半的配置选项,而Blackwell则提供了更多样化的选择。你将看到包括液冷版、风冷版、X86版、Grace版等多种系统设计。我们的合作伙伴生态系统正在设计并提供这些多样化的系统。

  当然,Blackwell平台极大地扩展了我们的产品线。CPU的集成以及更紧凑的计算密度,加上液冷技术,将为数据中心节省大量电力供应成本,并提高能源效率。因此,我们提供的是一个更优越的解决方案,涵盖数据中心的更多组件。

  在这个过程中,所有相关方都是赢家。数据中心将获得更高性能的网络连接,包括网络交换机和以太网。现在,我们有了以太网,这使我们能够将NVIDIA AI扩展到更大规模的客户群体,特别是那些只熟悉以太网操作的客户,因为他们已经建立了相应的生态系统。因此,Blackwell的成本较高,但我们为这一代产品提供了更丰富的选择和更高的价值,用于满足客户的需求。

  英伟达在推出基于Arm架构的CPU时,市场上已有性能良好的CPU可供数据中心使用。请问,是什么优势使得英伟达的Arm CPU对客户具有独特的价值?这是否与成本效益、功耗效率或其他技术优势有关?关于Grace与Hopper、Grace与Blackwell之间的技术协同效应,能否探讨一下,在客户端是否可能出现类似的动态?尽管市场上已有优秀的解决方案,英特尔和AMD都提供了卓越的X86产品,但在新兴的人工智能工作负载中,英伟达是否可提供某些独特的优势,这些优势可能是其他公司难以匹敌的?

  确实,对于众多应用而言,我们与X86合作伙伴的协作成果显著,共同打造了众多出色的系统。然而,Grace的设计使我们能够实现当前系统配置所无法达成的功能,尤其是在Grace与Hopper之间的内存系统设计上,它们是相干且紧密连接的。将它们称为两个独立的芯片几乎不太恰当,因为它们的连接方式更像是一个单一的超级芯片,通过每秒数TB的高速接口相连。

  Grace使用的是LPDDR内存,这是首款数据中心级别的低功耗内存。因此,我们在每个节点上都能显著降低功耗。此外,得益于我们能够自主设计整个系统架构,我们现在能够创造出具有庞大MV链接域的产品,这对于下一代大型语言模型的推理至关重要。

  正如你所见,GB200拥有一个72节点的MV链接域,相当于72个Blackwell紧密连接形成一个巨大的GPU。因此,我们需要Grace和Blackwell的紧密结合来实现这一点。这种设计基于架构上的考量、软件编程的需求,以及系统层面的必要性。如果我们看到这样的机会,我们自然会探索并抓住它。正如你在昨天的微软Build开发者大会上所看到的,微软首席执行官萨提亚·纳德拉宣布了下一代PC--Copilot+ PC,它在英伟达的RTX GPU上运行得非常出色,这些GPU正在笔记本电脑中发货,同时它也完美支持Arm架构,为包括PC领域的系统创新,开辟了新的可能性。

  这是一个长远的问题。我知道Blackwell尚未发布,但投资者总是具有前瞻性的。面对GPGPU和定制ASIC的潜在竞争加剧,你如何看待英伟达在未来十年的创新空间?过去十年,英伟达在Volta、Tensor、Grace、Cerebras以及连接性方面的成就令人印象深刻。我们期待了解未来十年需要解决的挑战,也许更重要的是,你今天愿意与我们分享什么?

  可以确认,在Blackwell之后,我们还有另一款芯片正在研发中,并且我们保持着一年的节奏。同时,你可以期待我们将以非常快的速度推出新的网络技术。我们正在推出Spectrum Expert Ethernet,我们全力投入Ethernet技术,并拥有一个激动人心的发展路线图。我们建立了一个强大的合作伙伴ECO。Dell宣布将把Spectrum X推向市场,我们有众多客户和合作伙伴将宣布采用我们的整个人工智能工厂架构。

  对于追求终极性能的公司,我们提供了计算机网络通信标准InfiniBand。随着时间的推移,InfiniBand演变成了一种更出色的网络技术。Ethernet原本是一种网络技术,而随着Spectrum X的推出,我们将使它成为一个更优秀的标准。我们全面致力于推动这三个领域的进步。

  从单一计算域的Enlightened Computing Fabric到InfiniBand,再到Ethernet,我们将快速推进这三个方面的发展。你将看到新的交换机、新的网络接口卡、新功能,适用于所有三个平台的新软件堆栈、新的CPU、新的GPU和新的网络设备。

  我们即将推出许多的芯片,最重要的是,所有这些新技术都将支持CUDA,并能运行我们的整个软件堆栈。这意味着,如果你今天在我们的软件堆栈上进行投资,就会发现无需进行任何额外操作,性能将自动提升。如果你今天投资于我们的架构,将看到它将自动扩展到更多的云服务和数据中心,一切都将无缝运行。

  我相信,我们所推动的创新步伐将一方面提升能力,另一方面降低总体拥有成本。因此,我们应该能够以英伟达架构引领这个新的计算时代,开启这场新的工业革命,我们将大规模地生产不单单是软件,还有人工智能Tokens。(编译/无忌)

CONTACT US
欢迎随时与我们联系