多项合作成果为基于Arm的解决方案带来更多可能性。这些合作包括:NVIDIA GPU与基于AWS Graviton2的Amazon EC2实例相结合,以及包含Ampere Computing 的CPU和双GPU的HPC开发者套件等
加利福尼亚州圣克拉拉市——GTC大会——太平洋时间2021年4月12日——NVIDIA于今日宣布通过一系列合作,将NVIDIA的GPU和软件与基于Arm®的CPU相结合,使得Arm架构灵活和高能效的优点扩展至从云到边缘的各类计算工作负载。
这些合作包括:将基于AWS Graviton2的Amazon EC2实例与NVIDIA GPU相结合;通过全新HPC开发者套件,为科学和AI应用的开发提供支持;提升边缘视频分析和安全功能;打造新一类基于Arm并搭载NVIDIA RTX™ GPU的新款PC。
NVIDIA创始人兼首席执行官黄仁勋表示:“Arm的高能效和IP商业模式使其成为了全球最受欢迎的CPU。Arm生态系统中包括全球各地的技术公司,他们蓄势待发,致力于将基于Arm的产品带入云、超级计算、PC和自主系统等新市场。我们致力于将Arm生态系统扩展到移动和嵌入式系统以外的市场,而今日宣布的新合作伙伴关系,正是我们迈出的重要一步。”
NVIDIA GPU 与基于AWS Graviton2的Amazon EC2实例相结合
NVIDIA和AWS于今日宣布,双方将一同在云端部署由GPU加速的基于Arm的实例。新的Amazon EC2实例将AWS Graviton2处理器和NVIDIA GPU相结合,将实现多重优势,包括降低成本,支持更丰富的游戏串流体验,以及为基于Arm的工作负载提供更高的性能。
通过这些实例,游戏开发者将能够在AWS上本地运行安卓游戏,使用NVIDIA GPU加速渲染和编码,且无需运行仿真软件就能将游戏串流传输至移动设备。
HPC开发者套件
随着市场对高能效超级计算机和数据中心的需求不断增长,NVIDIA发布了NVIDIA Arm HPC开发者套件,为科学计算提供支持。该套件包含1个Ampere® Altra® CPU,它拥有80个运行频率高达3.3GHz 的Arm Neoverse核;双NVIDIA A100 GPU,每个GPU可提供312 teraflops 的FP16深度学习性能;以及两个用于加速网络、存储和安全的NVIDIA BlueField-2® DPU。
该开发者套件可运行NVIDIA HPC SDK,这是一套编译器、库和工具,将助力工程师、科学家和开发者创建HPC和AI应用,并将其迁移到GPU加速的Arm计算系统中。
开发者和ISV合作伙伴可使用开发者套件,轻松地对其软件进行迁移和确认,并进行性能分析。率先展开部署的顶尖计算中心包括:美国的橡树岭国家实验室(Oak Ridge National Laboratory)、洛斯阿拉莫斯国家实验室(Los Alamos National Laboratory)和石溪大学(Stony Brook University);台湾地区的高速网路与计算中心(National Center for High Performance Computing);以及韩国科学技术研究院 (Korean Institute of Science and Technology)。
Ampere Computing高级解决方案总监Sean Varley表示:“NVIDIA GPU和DPU加速器与云原生Ampere® Altra®处理器的强大组合,能够为我们的客户提供一流的性能、可扩展性、实例、以及核密度,同时还能极富预见性地执行要求严苛的数据中心和云工作负载,如云游戏、HPC、科学计算、AI和网络等。NVIDIA的Arm HPC开发者套件提供了一个便利的途径来测试这种世界一流的组合,以应对最具挑战性的工作负载。”
开发者可点击此处申请抢先试用。该开发者套件将于2021年第三季度上市。
此外,NVIDIA正在与实验室负责人、科学家和合作伙伴展开合作,帮助他们将软件移植到Arm CPU和NVIDIA GPU上运行。
边缘和PC领域的合作
NVIDIA正在扩大与Marvell的合作,将OCTEON® DPU与GPU相结合,以加速云、企业、运营商和边缘应用。两者的结合将加速AI工作负载,例如从边缘到云端的网络优化和安全,以提升系统性能并降低延迟。
Marvell总裁兼首席执行官Matt Murphy表示:“Marvell基于Arm的OCTEON DPU平台致力于提供行业领先的解决方案,以满足云数据中心对安全性、网络和存储方面不断提升的要求,这一点一直以来也得到了业界的认可。 我们很高兴能够进一步扩展与NVIDIA多年的合作关系,将OCTEON DPU与NVIDIA GPU相结合,为视频分析和网络安全解决方案提供加速,以满足新兴的边缘到云应用的需求。”
在PC领域,NVIDIA与全球最大的基于Arm的SoC供应商之一联发科合作,致力于共同打造一个支持Chromium、Linux和NVIDIA SDK的参考平台。NVIDIA RTX GPU与高性能、高能效的Arm Cortex®处理器相结合,将为新款笔记本电脑带来逼真的光线追踪图形技术和顶尖的AI技术。
联发科首席执行官Rick Tsai表示:“联发科是全球最大的Arm芯片供应商,我们的芯片用于包括智能手机、Chromebook和智能电视在内的所有产品中。我们期待发挥自身的技术专长,与NVIDIA合作,将GPU的性能带入Arm PC平台,使其能够应用于游戏、内容创作等更多领域。GPU加速将极大地推动整个Arm生态系统的发展。”
欲了解更多信息,可免费注册4月12日-16日在线举办的GTC21。GTC21主题演讲中文字幕版将于北京时间4月13日上午9:00播出,敬请关注。
更多合作伙伴的支持
NVIDIA正在与富士通和SiPearl等其他合作伙伴共同致力于扩展Arm生态系统。
富士通有限公司企业执行官、高级副总裁兼未来社会与技术部副部长Naoki Shinjo 表示:“我们与NVIDIA和Arm生态系统的合作将加快HPC和数据科学的发展,为研究人员提供更广阔的发展机会,以打造创新的解决方案助力科研领域的突破。”
SiPearl首席执行官Philippe Notton表示:“SiPearl正在设计并向市场推出欧洲的高性能、高能效处理器Rhea,它将为欧洲的exascale(百亿亿次级)超级计算机提供支持。NVIDIA的新工具和SDK将帮助开发者为Arm构建加速HPC应用,为超级计算中心提供丰富的Arm生态系统。”
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。