黄仁勋带领Nvidia成为全球最有价值的公司之一,这要归功于他数十年来对加速计算能力的投资,这些投资推动了第一波大型生成式AI应用,然后引发了一连串的开发热潮。
上周在美国丹佛举行的SIGGRAPH 2024大会的炉边对话环节中,这家AI计算巨头的首席执行官、创始人就AI的变革力量、他对科技行业应对AI重大挑战的信心、以及他为什么相信Nvidia在可预见的未来仍将占据核心地位发表了几项大胆声明。
“每个人都在从CPU转向加速计算,因为他们想节省能源。加速计算可以帮助你节省大量能源:在进行相同处理时节省20倍、50倍。因此,从社会的角度来看,我们要做的第一件事就是加速我们能加速的每一个应用。”
以下是黄仁勋关于AI将如何影响就业、科技行业如何处理重现虚假或误导性信息的AI模型、Nvidia如何克服困难取得现在的成就、以及他认为该行业为什么以及如何解决AI日益增长的能源消耗问题的六个大胆声明。
黄仁勋:AI“极有可能”改变所有人的工作
当黄仁勋被问及他认为AI将多大程度上增强任务甚至取代人类完成任务的时候,他表示,AI“极有可能”改变所有人的工作,包括他自己的工作。
这种变化将以AI助手的形式出现,黄仁勋认为“每个人”在未来某个不确定的时间点都会拥有这种助手。
“每家公司、公司的每个工作岗位都将拥有AI助手,”他说。
黄仁勋指出,这种变化已经在Nvidia发生。
“我们的软件程序员现在有AI帮助他们编程,所有的软件工程师都有AI帮助他们调试软件,我们的芯片设计师有AI帮助他们设计芯片。”
关于最后一点,黄仁勋表示,如果没有AI,Nvidia最新的两种GPU架构Hopper和Blackwell“将无法实现”。
“如果没有生成式AI,我们所做的任何工作都不可能再实现,”他说道,随后又介绍了更多Nvidia员工使用AI的例子。
“我们的IT部门越来越多地帮助我们的员工提高工作效率,我们的供应链团队也越来越多地使用AI来优化供应,尽可能提高效率,或者我们的数据中心团队使用AI来管理数据中心,以尽可能节省能源,”他补充说。
黄仁勋:更精准的AI所需的技术已经就绪
黄仁勋表示,他相信使生成式AI工具更可控、更准确的必要技术已经到来。
他回应了一个问题,即他认为开发人员和研究人员如何解决目前AI模型最大的问题之一:容易“产生幻觉”并提供不正确或误导性的信息。
他提到了三项技术突破,这些突破有助于解决幻觉和生成式AI模型的相关问题。
他说,第一个突破来自OpenAI改变游戏规则的ChatGPT聊天机器人,被称为“强化学习人类反馈”。他说,这涉及使用人类“来生成正确答案或最佳答案,使AI与我们的核心价值观保持一致,或使我们的AI与我们希望它执行的技能保持一致”。
“这可能是一项非凡的突破,使他们能够向所有人开放ChatGPT,”他说。
他说,另一个突破是所谓的“护栏”。
这项技术——Nvidia通过Nvidia NeMo框架在其他公司的产品之上为大型语言模型提供这项技术——“使AI将精力或反应集中在特定领域,这样它就不会走神,也不会对你问它的各种问题发表长篇大论。”
第三个突破是检索增强生成(RAG),使结果更加准确和可控,黄仁勋说。
RAG本质上允许AI模型根据它在矢量化数据库中获取的信息提供答案,这些数据库可以保存各种不同类型的信息,具体取决于AI模型的应用。
“它可能是你写过的所有文章,你写过的所有论文,所以现在它变成了一个对你有权威的AI,本质上可能就是你的聊天机器人,”黄仁勋说。
“因此,我写过或说过的所有内容都可以被矢量化,然后创建到语义数据库中,然后在AI做出响应之前,它会查看你的提示,并从这个矢量数据库中搜索适当的内容,”他补充说。
黄仁勋:“你必须用意志力将未来变为现实”
随着Nvidia成为今年全球最有价值的公司之一,毫无疑问,它成了生成式AI淘金热的最大受益者之一。
不过,尽管Nvidia拥有合适的GPU、网络芯片、系统和软件来实现开创性的AI功能(例如ChatGPT)以及随后的开发风潮,但黄仁勋表示,这一切之所以发生,只是因为Nvidia逆势而行,努力改变计算的发展轨迹。
“事情从来没有朝着我们的方向发展。你必须用意志力将未来变为现实,”他说。
对Nvidia来说,面临的最大利好是科技界对通过CPU进行通用计算的接受,黄仁勋称这是一条“简单”的路线。
“你有软件,每年运行速度都会翻倍。想都别想,每五年,它的速度就会快10倍。每10年,它的速度就会快100倍。有什么理由不爱呢?”他说。
黄仁勋认为,通用计算的问题在于“你可以缩小一个晶体管,但你无法缩小一个原子,最终CPU架构会走到尽头。”出于这个原因,黄仁勋此前曾多次宣布摩尔定律的消亡,而业界传统上一直依赖摩尔定律来不断提高性能和效率。
黄仁勋表示,CPU的收益递减是Nvidia利用其GPU开发加速计算的原因,但在这种高性能处理器上实现各种应用所需的工作是“非常困难的”。
例如,他说,Nvidia利用Nvidia cuDF软件库加速GPU上的数据处理工作负载,这项工作“极其困难”。
“这些表格中的内容可能是浮点数、64位整数,可能是数字、字母和各种各样的东西。所以我们必须想办法计算所有这些,”黄仁勋说。
他表示,这反映了Nvidia每次想要扩展到另一个市场时,都必须了解应用的工作原理。
“这就是我研究机器人技术的原因,这就是我研究自动驾驶汽车的原因:了解开拓该市场所必需的算法,了解其下的计算层,这样我们才能取得非凡的成果,”黄仁勋说。
黄仁勋:生成式AI将降低互联网能耗
在黄仁勋的炉边谈话中,AI应用较高且不断增长的能源需求成为了一个主要话题,他指出Nvidia将帮助解决这一问题的几种方法,包括声称生成式AI将降低互联网的能耗。
他表示,互联网的传统计算方式称为“基于检索的计算”,这涉及获取位于数据中心的预先存在的数据。
“一切都是预先记录的。所有的故事都是预先记录的,所有图像都是预先记录的,所有视频都是预先记录的。因此,所有内容都预先存储在某个数据中心内。”
黄仁勋表示,“生成式AI将减少互联网上的能耗,因为我们不必去检索信息,而是可以当场生成信息,因为我们了解上下文。”
“我们可能已经在设备上存储了一些内容,可以生成响应,这样你就不必去其他地方检索它了,”他补充道。
黄仁勋:“AI不在乎它是在哪里上学的”
黄仁勋认为,科技行业解决AI高功率需求的另一种方式是在“能源过剩”的地区建立数据中心。
“今天的数据中心当然建在社会电网附近,因为那是我们需要的地方。未来,你会看到数据中心将建在世界各地能源过剩的地方,”他说。
黄仁勋用一句似乎是他自己创造的格言来支持这一信念——“AI不在乎它是在哪里上学的”——指的是模型在哪里训练并不重要,因为它会在其他地方被使用。
黄仁勋:“加速计算降低了能耗”
黄仁勋重申了他和Nvidia多年来关于加速计算的一个主要吸引力:GPU加速比通用CPU的能耗更低,但可以实现相同或更高的性能水平。
“加速计算减少了能耗,使我们能够维持计算需求,而无需电力随之增长,”他说。
他表示,这一点很重要,因为越来越多的科技公司正在开发具有尖端功能的AI模型,而这些模型需要计算机移动和处理大量数据。
“每个人都在从CPU转向加速计算,因为他们想节省能源。加速计算可以帮助你节省大量能源:在进行相同处理时节省20倍、50倍。因此,从社会的角度来看,我们要做的第一件事就是加速我们能加速的每一个应用。”
他指出,其他类型的工作负载也可以从加速计算中受益,比如数据处理和高性能计算。
“能量密度更高,但使用的能源量却大大降低。”他说。
好文章,需要你的鼓励
临近年底,苹果公布了2024年App Store热门应用和游戏榜单,Temu再次成为美国下载量最多的免费应用。
云基础设施市场现在已经非常庞大,很难再有大的变化。但是,因为人们可以轻松地关闭服务器、存储和网络——就像开启它们那样,预测全球云基础设施开支可能非常困难。