Nvidia今天推出了新版本的NeMo Megatron AI开发工具,该工具将让软件团队能够更快地训练神经网络。

而且,这次更新有望缩短训练高级自然语言处理模型所需的时间。
2020年,人工智能研究小组OpenAI推出了一种名为GPT-3的复杂自然语言处理模型。该模型可以执行从翻译文本到生成软件代码的各种任务。OpenAI提供的商业云服务让企业能够使用GPT-3的多个专业版本,并创建自己的自定义版本。
Nvidia今天更新的AI开发工具NeMo Megatron现在包含了针对训练GPT-3模型而优化的功能,预计这些功能可以将训练时间缩短多达30%。
Nvidia研究人员在今天发表的一篇博文中表示:“现在可以在24天内使用1024个NVIDIA A100 GPU对1750亿个参数模型进行训练,相比新版本发布之前,获得结果的时间缩短了10天,或大约250000小时的GPU计算时间。”
之所以能够得到加速得益于两项特性,即序列并行性和选择性激活重新计算。据Nvidia称,这两项功能都以不同方式对AI训练进行了加速。
GPT-3等AI模型由所谓层的软件构建块组成,每一层都执行一部分计算,神经网络利用这部分计算资源将数据转化为洞察力。加速AI训练常用的一种方法是配置神经网络层,以便计算可以并行执行,而不是一个接一个地执行,从而节省了时间。
序列并行性是此次NeMo Megatron新增的第一个功能,它使用相同的方法来加快处理速度。根据Nvidia的说法,这项新功能可以对以前只能按顺序一个一个执行的计算进行并行化,从而提高性能,并减少了多次执行相同计算的需要。
选择性激活重新计算是NeMo Megatron的另一个新功能,进一步减少了必须重复的计算次数。该功能通过优化所谓激活的计算操作来实现这一点,AI模型可以利用该功能处理数据。如果激活过程中必须重新计算的话,NeMo Megatron能够比以前更有效地执行此操作,从而缩短AI训练时间。
Nvidia还详细介绍了NeMo Megatron引入的另一项重大改进——超参数优化工具。超参数是软件团队在开发过程中为AI模型定义的配置设置,以优化其性能。使用Nvidia的超参数优化工具,软件团队就可以自动执行任务中涉及的一些手动工作。
开发人员可以指定AI模型的延迟或吞吐量级别,并让新工具自动找到满足要求所需的超参数。据Nvidia称,该功能对于优化AI训练过程特别有用,在一次内部测试中,Nvidia研究人员将GPT-3模型的训练吞吐量提高了30%。
Nvidia研究人员详细说明称:“我们在24小时内达到了175B GPT-3模型的最佳训练配置,与使用完全激活重新计算的常见配置相比,实现了吞吐量20%-30%的加速。”
好文章,需要你的鼓励
AI正在革命性地改变心脏疾病治疗领域。从设计微创心脏瓣膜手术到预防原理定位,机器学习和神经网络的洞察力推动了巨大进步,甚至可以构建新型移植解剖结构。数字孪生技术为个性化心血管护理提供持续预测管理。哈佛干细胞研究所的研究人员利用纳米材料和类似棉花糖机的设备,能在10分钟内制造心脏瓣膜,相比传统3周制造时间大幅缩短。这些突破性技术为每年4万名先天性心脏畸形儿童带来新希望。
这项由斯坦福大学和特拉维夫大学合作的研究揭示了语言模型内部存在三套协同工作的信息处理机制:位置机制、词汇机制和反射机制。研究发现,当文本复杂度增加时,传统的位置机制会变得不稳定,其他两种机制会自动补偿。这一发现解释了AI在长文本处理中的表现模式,为优化模型架构和提升AI可靠性提供了重要理论基础。
谷歌正在为搭载其内置信息娱乐系统的汽车推出谷歌地图实时车道引导功能,首先从极星4开始。该系统利用车辆前置摄像头和AI技术,分析车道标线和路标,为驾驶者提供更精确的车道指引和视听提示。该功能将在未来几个月内在美国和瑞典的极星4车型上推出,目前仅支持高速公路使用。
加州大学圣克鲁兹分校联合英伟达等机构开发出世界首个医学离散扩散模型MeDiM,实现了医学影像与报告的双向生成。该系统能根据临床报告生成对应影像,也能看图写报告,甚至可同时生成匹配的影像-报告对。在多项评估中表现优异,为医学教育、临床研究和辅助诊疗提供了强有力的AI工具。