黄仁勋:我们只需要三小时睡眠,因为短缺让客户很着急

书竹聊商业 2024-09-14 14:42:51

黄仁勋是会的。

这家半导体巨头创始人兼CEO在高盛主办的科技会议上谈到了他所感受到的紧张情绪,因为需求不缺,只是客户等的有点着急。

会议结束之后英伟达上涨 8.1%,至116.91美元,创下六周以来的最大单日涨幅。最新市值离重返“三万亿俱乐部”一步之遥。

大家说,黄仁勋“凭一己之力”带飞了美股。一场交流下来,英伟达的市值增加了2000亿美元。

这场高盛首席分析师Toshiya Hari跟他的对话还是很精彩。

前三分之一程回顾历史有点平平无奇,但后半程追问英伟达怎么考虑客户回报率,以及备受关注的Blackwell架构,以及处于有些敏感地带的供应商话题……黄仁勋的回答坦诚、直接,很有说服力。

这位半导体“带头大哥”的营销和沟通力是一流的。

他还说道,开始感觉自己肩负着整个世界(或者至少是人工智能)的重担。“我们的零部件、技术、基础设施和软件的交付确实会让人们产生情绪上的影响,因为这直接影响到他们的收入,直接影响到他们的竞争力。”

“如果我们能满足每个人的需求,那么这种情绪就会消失,但这非常情绪化,让人非常紧张,”黄仁勋表示,“我们肩负重任,尽力做到最好。”

三大云计算超大规模提供商微软、谷歌和亚马逊,都需要大量供应,而英伟达控制着 90% 的市场。

此前英伟达透露,仅四家数据中心客户就贡献了其第二季度近一半的营收。

这场对话全文的精译来自于公众号“地平线全球策略”,为了阅读方便,我们做了少量精简和编辑,完全不影响原意。

分享给大家。

关于NVIDIA的加速计算

Toshiya Hari:我想从31年前你创立公司的时候开始谈起。你已经将公司从一家以游戏为中心的GPU公司,转型为向数据中心行业提供广泛硬件和软件的公司。

我想请你先聊聊这段旅程。当你刚开始时,你在想什么?事情是如何演变的,因为这确实是一次非常非凡的旅程。

然后,你或许可以从这里展开,谈谈你未来的主要优先事项,以及你对未来世界的看法。

黄仁勋:很高兴来到这里。

我想说,我们做对的一件事是,我们的愿景是有另一种形式的计算,它可以增强通用计算能力,解决通用计算设备永远无法很好解决的问题。而这个处理器最初做的事情是对于CPU来说极其困难的,那就是计算机图形学。

但我们逐步将其扩展到其他领域。我们最先选择的是图像处理,它是计算机图形学的互补领域。

接着我们将其拓展到物理仿真,因为在我们选择的视频游戏应用领域,你希望它不仅仅是美丽的,还需要动态,能够创造虚拟世界。

我们一步一步地前进,并且将其应用到科学计算领域。

其中一个最早的应用是分子动力学仿真,另一个是地震波处理,基本上是逆物理学。地震波处理非常类似于CT重建,另一种形式的逆物理学。我们就是这样一步步前进,逐步解决问题,探索互补的算法和相邻的行业。

当时的共同愿景是,加速计算能够解决一些有趣的问题。而如果我们能够保持架构的一致性,意味着你今天开发的软件可以在你留下的大量现有设备上运行……过去你开发的软件会通过新技术进一步加速。

关于架构兼容性的这种思维,建立庞大的安装基础,将整个生态系统中的软件投资带在路上,这种心理自1993年开始,我们一直延续至今。

这也是为什么NVIDIA的CUDA拥有如此庞大的安装基础,因为我们始终在保护它。

保护软件开发者的投资一直是我们公司自成立以来的首要任务。

展望未来,我们一路上解决的一些问题,包括学习如何成为一名创始人,学习如何成为一名CEO,学习如何运营一家公司,学习如何构建一个公司,这些都是全新的技能,类似于发明现代计算机游戏行业的过程。

NVIDIA的用户可能不知道,但NVIDIA是全球最大的视频游戏架构安装基础,GeForce拥有约3亿玩家,并且仍然在快速增长,充满活力。

每次我们进入一个新市场时,我们都必须学习新的算法、新的市场动态,并创造新的生态系统。

我们之所以必须这样做,是因为与通用计算机不同,如果你构建的是通用处理器,所有东西最终都会自动运行。

但我们是加速计算机,这意味着你必须问自己:你要加速什么?没有所谓的通用加速器,对吧。

Toshiya Hari:谈谈一般用途计算和加速计算之间的区别吧。

黄仁勋:如果你看看现在的软件,在你编写的软件中,有很多部分是文件输入输出的处理,数据结构的设置,以及一些软件内部的核心算法。

而这些算法根据应用领域的不同也各有不同,无论是计算机图形学、图像处理,还是其他领域。

它可能是流体力学、粒子系统,或者我之前提到的逆物理学,也可能是图像处理之类的内容。这些不同的算法彼此不同。

如果你能创建一个处理器,特别擅长处理这些算法,并与CPU互补,让CPU做它擅长的事情,那么理论上你可以大幅加速应用程序的运行。

其背后的原因是,通常大约5%到10%的代码会占据整个程序运行时间的99.99%。如果你将这5%的代码转移到我们的加速器上,理论上你应该能够将应用程序的速度提高100倍。

这并不罕见,我们经常这么做。

例如,我们将图像处理加速了500倍。现在我们做数据处理,数据处理是我最喜欢的应用之一,因为几乎所有与机器学习相关的东西——一种基于数据驱动的软件开发方式——都与数据处理有关。

它可以是SQL数据处理,Spark类型的数据处理,或是向量数据库类型的处理,所有这些方式都处理不同形式的结构化或非结构化数据,如数据帧。

我们极力加速这一切的过程。但为了实现这一点,你必须建立一个高级的库。在计算机图形学的例子中,我们很幸运有Silicon Graphics的OpenGL和微软的DirectX,但除此之外,几乎没有其他库存在。

举个例子,我们最著名的库之一,就像SQL是一个库一样。

SQL是用于存储计算的库。我们创建了一个库,叫做cuDNN,它是世界上第一个神经网络计算库。我们还有用于组合优化的cuOpt,用于量子模拟和仿真的cuQuantum,还有各种不同的库,例如用于数据帧处理的cuDF,类似于SQL。

这些库需要被创造出来,它们将应用程序中的算法进行重构,以便我们的加速器能够运行。如果你使用这些库,那么你可以实现100倍的加速,获得更高的速度,简直不可思议。

这个概念非常简单,也非常合理,但问题是,你如何去发明所有这些算法,并让视频游戏行业使用这些算法?如何让整个地震处理和能源行业使用它们,写出新的算法并让整个人工智能行业使用它们?

你明白我的意思了吗?所以,这些库中的每一个,首先我们必须进行计算机科学方面的研究;其次,我们要经历生态系统的开发过程。

我们必须说服所有人使用它们,然后还要考虑它需要在哪种计算机上运行——每种计算机都不一样。

我们逐步在一个又一个领域中实现了这一点。我们为自动驾驶汽车建立了一个丰富的库,为机器人建立了一个极好的库,还有用于虚拟筛选的不可思议的库,无论是基于物理的虚拟筛选还是基于神经网络的虚拟筛选,我们在气候技术领域也有了不可思议的库。

我们就是这样一个领域接着另一个领域前进。我们必须去结交朋友,创造市场。

事实证明,NVIDIA非常擅长创造新市场。我们已经做了这么长时间,以至于现在看起来NVIDIA的加速计算无处不在,但实际上我们是一步一步地来,逐步在一个行业又一个行业中实现的。

关于当前的数据中心市场

Toshiya Hari:我知道在场的许多投资者都非常关注数据中心市场,所以很有趣的是,能从你的角度,公司角度,谈谈中长期的机会显现。显然,你们所在的行业正在推动下一场工业革命的到来。

这个行业面临哪些挑战?谈谈你如何看待当下的数据中心市场。

黄仁勋:有两件事情同时在发生,常常被混淆在一起,我们有必要将它们区分开来。

首先,我们假设一个没有AI的世界。

在这样一个没有AI的世界里,通用计算能力已经逐渐失去动力。

大家都知道,对于那些对半导体物理感兴趣的人来说,扩展能力正在减弱。

晶体管的缩放、Conway的晶体管缩小规律以及Denard缩放(在相同功耗下提高性能或降低成本)的时代已经结束了。

因此,我们不会再看到每年速度翻倍的CPU和通用计算机了。如果每10年速度能够翻倍,那我们已经很幸运了。

过去的摩尔定律是每五年性能提升10倍,每十年提升100倍。过去我们只需要等待CPU变得更快。

随着全球数据中心不断处理更多的信息,CPU的速度每年都会翻倍。当时我们没有看到计算能力的通胀。

但现在这种情况结束了,我们正在看到计算能力的通胀。我们现在必须加速一切我们能加速的东西。

如果你在做SQL处理,加速它。如果你在做任何类型的数据处理,加速它。如果你在建立互联网公司,并且拥有推荐系统,绝对要加速它,现在它们已经完全加速了。

几年前这些系统都运行在CPU上,但现在全球最大的数据处理引擎,也就是推荐系统,已经全面加速。

如果你有推荐系统或搜索系统,任何大规模的数据处理,你都必须加速它。

首先,全球价值数万亿的通用数据中心将被现代化,转向加速计算。

无论如何,这都会发生。原因就是我之前提到的,摩尔定律的时代已经结束了。

接下来你将看到的第一个变化是计算机的密集化。这些大型数据中心效率非常低,因为它们充满了空气,而空气是非常糟糕的导电体。

我们想做的是,将那些50兆瓦、100兆瓦或200兆瓦的大型数据中心,密集化成非常小的数据中心。

如果你看看我们的一台服务器机架,NVIDIA的服务器机架看起来很贵,可能每个机架要花费几百万美元,但它可以替代数千个节点。

令人惊讶的是,光是连接旧通用计算系统的电缆成本,就比替换这些系统并将它们密集化成一个机架的成本还要高。

密集化的另一个好处是,一旦你完成了密集化,你就可以使用液冷技术。因为给一个非常大的数据中心进行液冷很困难,但给一个非常小的数据中心进行液冷就容易得多。

所以我们正在做的第一件事就是加速现代化数据中心,加速它,密集化它,使其更加节能。你能省钱,节约能源,并且更加高效。

这是第一步,即使我们只专注于这点,这也将是未来十年的趋势。我们只会加速这一过程。

当然,第二个变化是由于NVIDIA的加速计算为计算带来了巨大的成本降低。在过去的十年里,我们的计算能力增长了100万倍,而不是摩尔定律所预期的100倍。

问题是,如果你的飞机速度快了一百万倍,你会做什么不同的事情?

突然之间,人们说,为什么我们不让计算机来编写软件,而不是我们自己去找出特征和算法?我们可以将所有数据、所有预测数据交给计算机,让它自己找出算法,这就是机器学习和生成式AI。

我们在如此大规模的不同数据领域中进行了操作,现在计算机不仅理解如何处理数据,还理解数据的意义。因为它能同时理解多种模式,所以它可以翻译数据。

我们可以将英文翻译成图像,图像翻译成英文,英文翻译成蛋白质,蛋白质翻译成化学物质。

它一次性理解了所有数据,可以进行这些翻译,这就是我们称之为生成式AI的东西,将大量文本缩减成少量文本,或将少量文本扩展成大量文本,我们现在正处于这场计算机革命中。

令人惊叹的是,首个万亿级的数据中心将加速并发明一种新的软件类型,称为生成式AI。

这种生成式AI不仅仅是一种工具,它还是一种技能。这就是有趣的地方。这就是为什么一个新行业已经诞生了。

如果你回顾整个IT行业,直到现在我们一直在制造人们使用的工具和设备。这是我们第一次创造能够增强人类能力的“技能”。

因此,人们认为人工智能将超越万亿级的数据中心和IT领域,进入“技能”的世界。

那么,什么是“技能”?

数字货币是一种技能,自动化、数字化装配线工人、机器人、数字客服、聊天机器人,还有为NVIDIA供应链做计划的数字员工。

这可能是一个数字化的SAP代理。

我们公司使用了大量的ServiceNow系统,我们有数字员工服务。现在我们基本上拥有了这些数字化人类,这就是我们当前所处的人工智能浪潮。

关于客户投资回报率

Toshiya Hari:回顾一下,根据你刚才所说的一切,金融市场上确实存在着一个持续的争论,那就是在我们继续构建这套AI基础设施的过程中,是否能够获得足够的投资回报。

黄仁勋:是的。

Toshiya Hari:你如何评估在这一周期阶段客户的投资回报率(ROI)?

如果回顾一下,当PC和云计算处于类似的采用周期时,它们的投资回报率表现如何?与我们现在继续扩展时的情况相比,这些投资回报率有什么不同?

黄仁勋:让我们来看看。在云计算之前,主要的趋势是虚拟化,你们可能还记得这一点。

虚拟化的基本理念是,将我们数据中心的所有硬件进行虚拟化,形成一个虚拟的数据中心,然后我们可以在数据中心内移动工作负载,而不是将其直接与某台特定的计算机关联。

结果是,数据中心的效率和利用率得到了提升。

通过虚拟化,我们看到数据中心的成本几乎立刻降低了2倍到2.5倍。

第二件事情是,在我们虚拟化之后,我们把这些虚拟计算机直接放到了云中。

结果是,多个公司,不仅仅是一个公司的许多应用程序,可以共享相同的资源,进一步降低了成本。资源的利用率再次提升。

顺便说一下,过去10年到15年发生的所有这些事情,掩盖了底层的一个根本变化,那就是摩尔定律的终结。

我们发现了两次成本的翻倍降低,直到晶体管缩放的终点。晶体管和CPU的缩放已经结束,然后突然间,我们已经从这两个方面获得了成本利用率的降低。

我们已经走到了尽头,这就是为什么我们现在看到数据中心和计算成本的通胀正在发生的原因。

首先发生的事情是加速计算。把你的数据处理工作交给Spark,这是世界上最常用的数据处理引擎之一,这种做法并不罕见。

如果你使用Spark并通过NVIDIA的云加速它,看到20倍的加速并不罕见。你将节省10倍的时间,当然,你会支付一些费用,因为NVIDIA的GPU增强了CPU,计算成本可能会增加一倍左右,但计算时间减少了大约20倍。

你最终可以节省10倍的成本。

当然,看到这种加速计算的投资回报率(ROI)并不罕见。我建议你们将所有可以加速的任务加速,然后通过GPU运行加速过的任务。

这就是通过加速所获得的即时投资回报率。

除此之外,关于生成式AI的讨论正处于第一波浪潮中,像我们这样的基础设施提供商和所有的云服务提供商将基础设施放在云端,开发者可以使用这些机器来训练模型、微调模型、设置模型的保护措施,等等。

这种投资回报非常惊人,因为需求太大了,每花费我们1美元,客户就能换来5美元的租赁收入,这种情况正在全球发生,所有资源都被预订一空。

需求量非常惊人!

一些我们已经知道的应用程序,当然有那些著名的,比如OpenAI的ChatGPT,GitHub的Copilot,或者我们公司内部使用的代码生成器,这些工具带来的生产力提升是不可思议的。

在我们公司,现在没有一位软件工程师不用代码生成器,无论是我们自己为CUDA或USD(我们公司使用的另一种语言)构建的工具,还是Verilog,C和C++等的代码生成器,大家都在使用。

我认为,每一行代码都由软件工程师亲自编写的时代已经彻底结束了。我们设想,每个软件工程师都有一个数字工程师伙伴24小时与他们协作,这就是未来的趋势。

在我看来,NVIDIA有3.2万名员工,但这些员工的周围希望有100倍数量的数字工程师协助他们工作。

关于应用领域

Toshiya Hari:没错,很多行业都在接受这一变革。你对哪些应用案例或行业最感到兴奋?

黄仁勋:在我们公司,我们将人工智能应用于计算机图形学。现在如果没有人工智能,我们根本无法完成计算机图形的工作。

我们计算一个像素,然后推断出另外32个像素,这真是不可思议。

可以说,我们“幻想”出另外的32个像素,图像看起来暂时稳定,逼真度极高,图像质量和性能都非常出色。

计算一个像素需要消耗大量能量,而推断出另外32个像素则消耗的能量极少,而且速度非常快。

其中一个要点是,人工智能不仅仅是训练模型,训练只是第一步,关键是如何使用这个模型。

使用模型时,可以节省大量能量,节省大量处理时间。

我们在计算机图形学中使用了人工智能。

如果没有人工智能,我们无法为自动驾驶行业提供服务;如果没有人工智能,我们在机器人、数字生物学方面的工作也无法进行。如今我遇到的几乎每一家科技生物公司都是建立在NVIDIA的技术基础之上。他们正在使用它进行数据处理或生成新东西..

Toshiya Hari:我认为这些事情非常令人兴奋。

黄仁勋:这非常不可思议。小分子生成、虚拟筛选。

因为人工智能,整个领域将通过计算机辅助药物发现进行彻底的重新发明,这是前所未有的。

因此,那里的工作进展非常惊人。

关于Blackwell

Toshiya Hari:是的,让我们谈谈竞争,谈谈你们的竞争护城河。毫无疑问,一些上市公司和私营公司正在寻求打破你们的领导地位。你是如何看待你们的竞争护城河的?

黄仁勋:我认为有几件事情使我们与众不同。

首先要记住,人工智能不仅仅是关于芯片,它是关于基础设施的。

如今的计算并不是制造一块芯片然后人们买了芯片装进电脑,这种模式属于上世纪90年代。

如今的计算机构建方式不同,如果你看看我们的新系统,我们设计了七种不同类型的芯片来创建这个系统,Blackwell是其中之一。

Toshiya Hari:聊聊Blackwell吧。

黄仁勋:当你想构建这样的AI计算机时,人们会使用诸如“超级集群”、“基础设施”、“超级计算机”这样的词语,这是有原因的,因为它不仅仅是一块芯片,也不仅仅是传统意义上的计算机。

我们正在构建整个数据中心。如果你看看这些超级集群,想象一下运行它们需要的软件。

它没有像Microsoft Windows那样的系统,那些日子已经结束了。这台计算机内部的所有软件都是定制的,必须有人去编写它。

设计芯片的人、设计超级计算机和超级集群的公司,以及编写所有相关软件的公司是同一家是有道理的,因为这样会使系统更加优化,性能更好,能源效率更高,成本也更加有效。

这是第一点。

第二点是,人工智能与算法息息相关,而我们非常擅长理解算法是什么,它对底层计算栈意味着什么,以及如何将计算分布在数百万个处理器上,连续运行几天,计算机尽可能具有弹性,同时实现出色的能效,并尽快完成任务,等等。

我们在这方面非常出色。

最后,人工智能本质上就是计算,人工智能软件运行在计算机上。

我们知道,对于计算机来说,最重要的事情是安装基础,拥有相同的架构,无论是在云端、内部部署还是在本地,都拥有相同的架构,无论你是在云端、自己的超级计算机上构建它,还是尝试在汽车、机器人或PC上运行它,拥有相同架构以运行相同软件是非常重要的。

这就是所谓的安装基础。

我们过去30年来的坚持促成了今天的成果,这也是为什么如果你要创办一家公司,最明显的选择就是使用NVIDIA的架构,因为我们存在于每一个云平台,无论你在哪里购买设备,只要设备标有NVIDIA,你就可以确保你的软件能够在上面运行。

Toshiya Hari:你们的创新速度非常快。我想请你多谈谈Blackwell,它的训练速度比前代产品Hopper快4倍,推理速度快30倍。

你们的创新速度看起来非常快,你们能保持这种快速的创新节奏吗?当你考虑合作伙伴时,你认为他们如何跟上你们的创新速度?

黄仁勋:关于创新的速度,我们的基本方法是,记住,我们正在构建一个包含七种不同芯片的基础设施。

每个芯片的迭代周期,最多是两年,最多两年。我们每年可以给它一个中期提升。但如果你每两年就推出一个新架构,那么你的速度已经是光速级别的,真的非常快。

现在我们有七种不同的芯片,它们都为性能做出了贡献。我们每年都可以推出一个比上一代更好的AI集群或超级集群,因为我们有很多不同的组件可以改进。

我们在如此规模上的性能提升,直接转化为总拥有成本(TCO)的下降。

当Blackwell的性能提升3倍时,对于拥有一定功率(比如1吉瓦)的用户来说,他们的收入也将增加3倍。

这种性能转化为吞吐量,而吞吐量又转化为收入。

对于拥有1吉瓦功率的用户来说,他们的收入将是原来的三倍。你无法通过降低芯片成本或提供折扣来弥补3倍的收入差距。

通过整合所有不同的组件,优化整个架构和集群,我们能够提供更高的性能,以更快的速度为客户创造越来越高的价值。

反过来也同样成立。对于你想花费的任意金额,比如在相同功耗下,你可以获得3倍的收入。

对于相同的支出,你可以获得3倍的性能提升,这其实就是在说成本降低。

因此,我们拥有每瓦最佳性能,意味着更高的收入;我们在总拥有成本(TCO)方面也有最佳表现,这意味着更好的毛利率。

我们不断将这些推向市场。客户不仅每两年可以受益一次,而且我们的架构是兼容的。

你昨天开发的软件可以在明天运行,今天开发的软件可以在你整个安装基础上运行,这样我们就能保持极快的运行速度。

如果每个架构都不同,你根本无法做到这一点。单是拼凑出一个系统就要花费一年时间。因为我们把所有东西都整合在一起,当我们将系统发货给你时,效果显著。

有人曾发推特说,在我们将系统发货给他们后的19天内,他们已经搭建并运行了一个超级集群,仅用了19天。

如果你是拼凑各种不同的芯片并编写软件,那么一年内完成就算幸运了。

我们能够将创新速度转化为客户的收入增长和更好的毛利率,这是一件非常了不起的事情。

关于台积电及供应链

Toshiya Hari:你们的大多数供应链合作伙伴都位于亚洲,特别是TW,鉴于当前的地缘政治局势,展望未来,你对此有何看法?

黄仁勋:是的,亚洲的供应链非常庞大且紧密相连。

人们认为,当我们谈到GPU时,想到的是很久以前我发布新一代芯片时,手里拿着一块芯片。

那是一块新的GPU。现在,NVIDIA的新的GPU有35,000个零件,重量80磅,功耗达到10,000安培。

当你将它组装起来时,重量达到83,000磅。你知道,这些GPU非常复杂,它们的结构像电动车,零件也像电动车一样复杂。

因此,亚洲的生态系统非常多样化且紧密相连。我们尽量在各个方面设计多样性和冗余机制(以确保供应链稳定)。

最后一点是,我们公司拥有足够的知识产权,如果需要从一个代工厂转移到另一个时,我们有能力进行转移。

也许工艺技术不会那么出色,也许我们无法获得相同的性能或成本水平,但我们将能够保证供应。

如果真的发生什么情况,我们应该能够在其他地方继续生产。

我们在台积电进行制造,因为它是全球最好的。它不仅仅是好一点点,而是以巨大的优势成为世界上最好的。

我们与他们长期合作,彼此之间有很好的默契,他们的灵活性以及能够快速扩展的能力都非常出色。

记住,NVIDIA去年的收入出现了大幅增长。如果没有供应链的响应,这种增长是不可能实现的。

这个供应链的灵活性和响应能力,包括台积电的表现,真的是不可思议的。

不到一年的时间里,我们大幅提高了产能,明年我们还将继续扩大产能,后年还会继续增加。

这种敏捷性和应对能力是我们选择台积电的原因。但如果有必要,当然我们也可以启用其他厂商。

关于最担心的事

Toshiya Hari:公司现在的位置非常有利。我们谈到了很多好的事情。那么你会担心什么呢?

黄仁勋:我们公司现在与全球每一家人工智能公司合作。

我们也与全球每一个数据中心合作。

我不知道有哪一个数据中心、云服务提供商或计算机制造商我们没有合作的。

这伴随着巨大的责任,我们肩上背负着很多人的期望。

每个人都在依赖我们,需求量如此之大,以至于我们的组件、技术、基础设施和软件的交付让人们感到非常紧张,因为这直接影响到他们的收入和竞争力。

因此,我们今天可能有比以往更多的情感化客户,这是可以理解的。

如果我们能满足每个人的需求,这种情绪就会消失。但现在情绪化很严重,气氛非常紧张。

我们肩负着巨大的责任,我们正在尽力做到最好。

发明下一个计算机时代是一件非常有趣的事情,看到所有这些令人惊叹的应用程序被创造出来真的很有趣,看到机器人四处行走真的很不可思议,看到这些数字代理人像一个团队一样在你的计算机中解决问题也很令人惊叹。

看到我们正在使用的人工智能设计出能够运行这些人工智能的芯片,真的很神奇。

所有这些东西都非常令人惊叹。

但其中最令人感到压力的是,我们肩上背负着整个世界的期望。确实如此。

睡眠还好,我们只需要三个小时的坚实睡眠,这就够了。

Toshiya Hari:你真厉害,我需要比那更多的睡眠。我还可以再聊半个小时,但不幸的是,我们得结束了。非常感谢你。

黄仁勋:感谢。

0 阅读:0