2月22日晚,英伟达市值一夜大涨 16.4% 达到 1.96 万亿美元,创下历史上最新的记录,并一举超越谷歌和亚马逊跻身全球第四,仅次于微软、苹果、沙特阿美。
英伟达单日市值增加 2770 亿美元,约等于 1.5 个英特尔,这也是美股历史上个股最大单日市值增长。
2月22日英伟达刚刚公布了截至今年 1 月 28 日的 2024 财年第四季度财务报表。在财报公布前一天,英伟达股价下跌 4.35%,出现今年年内最大单日跌幅;财报公布当天,股价再跌 2.85%。
但英伟达近乎满分的答卷一夜之间填满了投资者的信心。该季度英伟达营收为 221 亿美元,同比增长 265%,环比增长 22%。市场预期为 204.1 亿美元;利润方面,纯利润是 123 亿美元,同比增长了 769%,按美国通用会计准则下,本季度毛利率达 76%,市场预期 75%。
财报电话会上,英伟达首席执行官黄仁勋称,对 AI 所依赖的计算能力的需求仍然是极其巨大的,“全世界内,企业、行业和各国的需求都在激增。”
英伟达有数据中心、游戏、专业可视化、汽车四大业务,先看一下具体的业绩表现。
财报显示,第四季度营收达到创纪录的 184 亿美元,环比增长 27%,同比增长 409%。全年收入增长 217%,达到创纪录的 475 亿美元。
财报电话会上,英伟达高管解释道,第四季度数据中心的增长是由跨行业、案例和地区的生成方式人工智慧和语言模型的训练和推理所推动的。其中,约 40% 来自人工智能推理。
第四季度,大型供应商占英伟达数据中心收入的一半以上,支持内部工作负载和外部公有云客户。
其中,消费网络公司是英伟达最大的客户类别之一。从搜索到电子商务、社会化媒体、新闻和视频服务以及娱乐的公司都在用AI优化产品体验,甚至直接影响营收。Meta便在最新季度财务报表中表示,更准确的预测和广告商业绩的改善有助于其收入大幅增长。
22日早上,英伟达还宣布与 Google 合作优化其最先进的新 Gemma 语言模型,以加速其在云端、数据中心和 PC 中 NVIDIA GPU 上的推理。
针对中国地区,在美国政府 10 月份实施出口管制法规后,英伟达数据中心收入一下子就下降。第四季度,中国数据中心收入占数据中心收入的中个位数百分比,并预计第一季度将保持在类似的范围内。
同为英伟达发家业务,相比于数据中心的迅猛涨势,游戏业务的表现有些中规中矩。
第四季度,游戏业务营收为 29 亿美元,环比持平,同比增长 56%。全年收入增长 15%,达到 104 亿美元。
此外,AI PC是本届 CES 上的一枝独秀,英伟达自然也没有缺位。英伟达宣布为其超过 1 亿台 RTX AI PC 的安装基础提供生成式 AI 功能,包括用于加速大型语言模型推理的Tensor-RT™ LLM ,以及让用户使用自己的内容个性化聊天机器人的技术演示Chat with RTX 。
英伟达还推出了NVIDIA Avatar Cloud Engine 的微服务,允许游戏和应用程序研发人员将最先进的生成式 AI 模型集成到不可玩的角色中。
第四季度,专业可视化业务营收为 4.63 亿美元,环比增长 11%,同比增长 105%。全年收入增长 1%,达到 16 亿美元。
财报电话会显示,本季度的连续增长是由 RTX Ada 架构 GPU 的丰富组合持续增长所推动的。企业正在更新其工作站,以支持与生成型人工智能相关的工作负载,例如数据准备、LLM 微调和检索增强生成。
这些推动需求的关键垂直行业包括制造业、汽车和机器人技术。汽车行业也是 NVIDIA Omniverse 的早期采用者,因为该行业寻求将工厂和汽车从设计到建造、模拟、操作和体验的工作流程数字化。在 CES 上,英伟达宣布 Brickland、WPP 和 ZeroLight 等创意合作伙伴和开发商正在构建 Omniverse 支持的汽车配置器。
第四季度,汽车业务营收为2.81亿美元,环比增长8%,同比下降4%。全年收入增长 21% 至 11 亿美元。
汽车业务是黄仁勋继游戏、数据中心之后被寄予厚望的第三大核心业务。但从今年的表现来看,似乎不尽如人意。
财报透露,其后续产品 NVIDIA DRIVE Thor 通常专为视觉Transformer设计,可提供更多 AI 性能,并将广泛的智能功能集成到单个 AI 计算平台中,包括无人驾驶和停车、驾驶员和乘客监控以及 AI 驾驶舱功能,并将明年上市。
同时,本季度有多家汽车客户发布了重要的公告,理想汽车、长城汽车、吉利旗下高端电动汽车子公司 ZEEKR 以及小米电动汽车均发布了基于 NVIDIA 的新车。
财报显示,软件和服务产品也取得了巨大进展,第四季度的年化收入达到了 10 亿美元。
第一个是从通用计算到加速计算的转变。通用计算正开始失去动力。您可以从云服务商的扩展和许多数据中心(包括我们自己的通用计算中心)中看出,折旧时间从 4 年延长到 6 年。当您无法像以前那样从根本上明显提高其吞吐量时,就没理由更新更多 GPU。所以你必须加速一切。这是 NVIDIA 一段时间以来一直在开拓的领域。通过加速计算,您可以明显提高能源效率,可以将数据处理成本大幅度降低 20 倍,这是一个巨大的数字。
当然还有速度。这种速度令人难以置信,以至于我们实现了第二次全行业转型——生成式人工智能。请记住,生成式AI是一种新的应用,它正在启用一种新的软件开发方式,新类型的软件正在被创建,这是一种新的计算方式。你无法在传统的通用计算上进行生成式人工智能。你必须加速它。
第三,它正在催生一个全新的行业。我们现在有一个关于AI生成的新型数据中心,一个AI生成工厂,它需要原材料,也就是数据。它用 NVIDIA 构建的这些 AI 超级计算机对其做改造,并将它们变成极其有价值的 Token。这些 Token是 人们在 ChatGPT 或 Midjourney 上体验到的,或者如今的搜索也因此得到了增强。现在,您所有的推荐系统都受到了随之而来的超个性化的增强。所有这些令人难以置信的数字生物学初创企业都在生产蛋白质和化学品,这样的例子不胜枚举。
我们业务的推理部分增长巨大,估计约为 40%。训练量在持续,因为这些模型慢慢的变大,推理量也在增加。但我们也在向新行业多元化发展。大型云服务商仍在继续建设。还有一个全新的类别,他们是专注于 NVIDIA AI 基础设施、GPU 的云服务商。
您会看到企业软件平台部署人工智能。ServiceNow 就是一个非常非常好的例子。你能够正常的看到 Adobe,SAP 和其他公司。您会看到消费者互联网服务正在通过生成式人工智能增强过去的所有服务,因此他们能够创建更多超个性化的内容。
我们正在谈论工业生成人工智能。现在我们的行业代表了数十亿美元的业务:汽车、健康、金融服务,总的来说,我们的垂直行业现在是数十亿美元的业务。
当然,还有主权人工智能(sovereign AI)。每个地区的语言、知识、历史、文化都不同,他们拥有并希望使用自己的数据,训练它以创建自己的数字智能,并自己提供这些服务。主权 AI 基础设施正在日本、加拿大、法国等许多别的地方建设。所以我的预期是,在美国、在西方所经历的,肯定会在整个世界复制。
去年,我们正真看到生成性AI真正成为一个全新的应用空间,一种全新的计算方式,一个全新的行业正在形成,这正在推动我们的增长。
黄仁勋:这一个数字可能被低估了。一年前,推荐系统——地球上最大的软件引擎——都是基于 CPU 的。但最近向深度学习和生成式人工智能的迁移确实让这些推荐系统现在立即进入了 GPU 加速的道路,现在推荐系统的每一个步骤都用到了 GPU。
世界上几乎每一家大公司都必须运行这些大型推荐系统。每当您使用 ChatGPT 时,都会对其进行推理。每当你听说 Midjourney 以及他们为广大购买的人生成的东西的数量时,当你看见我们与 Getty 和 Adobe 的 Firefly 所做的工作时,这些都是生成模型。一年前,这些案例都不存在。这样的例子还在继续。
黄仁勋:总体而言,我们的供应正在改善。从晶圆、封装、内存、所有电源调节器到收发器、网络和电缆,以及你所能想到的我们发货的组件列表。人们认为 NVIDIA GPU 就像一个芯片,但NVIDIA Hopper GPU有 35000 个部件。它重 70 磅。我们构建的这么多东西真的很复杂。人们称它为AI超级计算机是有充分理由的。如果你曾经看过数据中心的背面,那些系统,布线系统令人难以置信。这是世界上见过的最密集、最复杂的网络布线系统。
然而,每当我们有新产品时,它从 0 增长到一个非常大的数字,你不能一夜之间做到这一点。一切都是逐步增长的。现在我们正在增加 H200 的产量,我们没办法在短期内合理地跟上需求。
我们正在增加 Spectrum-X 的产量,这是我们全新的产品,进入以太网领域。InfiniBand 是 AI 专用系统的标配。以太网在 Spectrum-X 之前,并不是一个很好的扩展系统。但是有了 Spectrum-X,我们在以太网的基础上增加了新的功能,比如自适应路由、拥塞控制、噪声隔离或流量隔离,以便我们也可以为 AI 优化以太网。所以 InfiniBand 将是我们 AI 专用基础设施,Spectrum-X 将是我们 AI 优化的网络。
所以,对于所有新产品,需求总是大于供应。这正是新产品的本质,我们尽可能快地工作以赶上需求。总的来说,我们的供应正在非常好地增加。
黄仁勋:首先,我们的云服务提供商对我们的产品路线图和过渡很有清晰的了解。与云服务商之间的这种透明度让他们有信心知道应该在何时何地投放哪些产品。因此,他们可以根据我们的能力了解到最佳时机,并且知道数量和分配情况。我们尽力做到公平分配,并避免不必要的分配。
当数据中心还没有准备好时,为何需要分配资源呢?没什么比让任何东西闲置更困难的了。在终端市场方面,我们有一个与 OEM、ODM、云服务商以及很重要的终端市场共同构成的优秀生态系统。
NVIDIA 真正独特的地方在于,我们为我们的客户、合作伙伴、云服务商和 OEM 带来客户。所有这些初创公司——大公司、医疗保健、金融服务、汽车等行业都在 NVIDIA 的平台上工作。我们直接支持他们。而且,我们大家常常能够最终靠向云服务商分配资源的同时,将客户带给云服务商来实现双赢。所以这个生态系统是充满了许多活力的。但在其核心,我们大家都希望公平分配,避免浪费,并寻找机会连接合作伙伴和最终用户。
问:英伟达的客户怎么样看待他们今天正在进行的 NVIDIA 投资的长期可用性?今天的训练集群会不会变成明天的推理集群?
黄仁勋:这真的是非常酷的部分。如果您看看我们之所以能够如此大幅度提升性能的原因,那是因我们的平台有两个特点。一是它是加速的,二是它是可编程的。NVIDIA 是唯一一个从最开始,字面意义上的最开始,当 CNNs 和 Alex Krizhevsky、Ilya Sutskever 以及 Geoff Hinton 首次揭示 AlexNet 开始,一直到 RNNs、LSTMs、每种 RL、深度 RL、变换器、每种视觉变换器、多模态变换器,以及现在的时间序列内容。每一种AI的变体,我们都支持它,为我们的堆栈优化它,并将其实现在我们的安装基础中。
这真的是非常了不起的部分。一方面,我们大家可以发明新的架构和技术,比如我们的张量核心变换器引擎,改进新的数值格式和处理结构,就像我们在不同代的张量核心中所做的那样,同时支持现有的安装基础。因此,我们把所有新的软件算法发明,所有的发明,新的行业模型发明,它们都在我们的安装基础上运行。
另一方面,每当我们正真看到一些革命性的东西,比如 Transformer,我们大家可以创造一些全新的东西,比如 Hopper 变换器引擎,并将其实现在未来的产品中。因此,我们同时具备将软件带给现有安装基础并一直在改进的能力。所以,跟着时间的推移,我们客户的安装基础会因我们的新软件而变得更丰富。
另一方面,对于新技术,创造革命性的能力。不要惊讶,如果我们在未来的一代产品中突然实现了大型语言模型的惊人突破。这些突破,其中一些将在软件中实现,因为它们运行 CUDA,并将提供给现有的安装基础。因此,一方面我们带领所有人前进,另一方面我们取得了巨大的突破。
黄仁勋: 记住,核心问题是,美国政府既希望限制 NVIDIA 加速计算和AI的最新能力进入中国市场,又希望看见我们在中国市场尽可能成功。当新的限制出台时,我们不得已暂停,以便我们理解这些限制是什么,以一种无法被任何软件黑客攻击的方式重新配置我们的产品。这花了我们一些时间。所以我们重新设定了对中国的产品供应,现在我们正在向中国市场的客户进行样品测试。
我们将尽最大努力在中国市场之间的竞争并取得成功,同时遵守限制的规格。上个季度,我们的业务显著下降,因为我们在市场上暂停了。我们停止了在市场上的发货。我们预计这个季度情况会差不多。但在此之后,希望我们也可以去竞争我们的业务并尽最大努力,我们会看看结果如何。
黄仁勋:让我退一步,解释一下为什么 NVIDIA 在软件领域将会非常成功的根本原因。
首先,加速计算在云中真正得到了发展。在云中,云服务提供商拥有非常庞大的工程团队,我们与他们合作的方式使他们可以运营和管理自己的业务。每当出现任意的毛病时,我们都有大型团队分配给他们,他们的工程团队直接与我们的工程团队合作,我们增强、修复、维护、打补丁加速计算所涉及的复杂软件堆栈。
加速计算与通用计算非常不同。你不是从一个像 C++这样的程序开始。你编译它,然后所有的东西都在你的 CPU 上运行。从数据处理、SQL 与结构化数据,到所有图像、文本和 PDF(这是非结构化的),再到经典机器学习、计算机视觉、语音、大型语言模型、推荐系统,所有这些都需要不同的软件堆栈。这就是怎么回事 NVIDIA 有数百个库。
如果你没有软件,你就不能打开新市场。如果你没有软件,你就不能打开并启用新应用。软件对于加速计算是根本必要的。这是加速计算与通用计算之间的根本区别,大多数人花了很久才理解这一点。现在人们明白软件确实是关键。
我们与云服务提供商的合作方式真的很简单。我们有大型团队与他们的大型团队合作。然而,现在生成性AI正在使每个企业和每个企业软件公司都能够拥抱加速计算,当现在拥抱加速计算变得至关重要,因为仅仅通过通用计算已经不可能、也不再可能以任何方式维持提高吞吐量时,所有这一些企业软件公司和企业都没有大型工程团队能够维护和优化他们的软件堆栈,使其能够在整个世界的云、私有云和本地运行。
所以我们将为他们的所有软件堆栈做管理、优化、打补丁、调整、安装基础优化。我们将它们容器化到我们称为 NVIDIA AI Enterprise 的堆栈中。我们将其推向市场的方式是,将 NVIDIA AI Enterprise 视为一个运行时,就像操作系统一样。它是一个人工智能的操作系统。
我们每个GPU每年收费4500美元。我猜测世界上的每个企业,每个在所有云、私有云和本地部署软件的企业软件公司,都会在 NVIDIA AI Enterprise 上运行,尤其是对我们的 GPU。所以这将很可能跟着时间的推移成为一个非常重大的业务。我们已有了一个良好的开端。而且科莱特提到,它已经有10亿美元的年营业额,我们才刚刚开始。
本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。