
A100面世不到一年,就已经成为了各大CSP和服务器制造商眼中的头牌利器了。NVIDIA公司今日宣布,多家中国顶级云服务提供商及系统制造商纷纷采用NVIDIA A100 Tensor Core GPU和NVIDIA技术,为企业和行业的各类AI应用提速。
今年5月,NVIDIA推出了首款基于NVIDIA Ampere架构的NVIDIA A100 Tensor Core GPU。迄今为止,包括阿里云、百度智能云、滴滴云、腾讯云等在内的众多中国云服务提供商纷纷推出搭载了NVIDIA A100的多款云服务及GPU实例。
NVIDIA A100 GPU配备了具有更高精度的第三代Tensor Core核心,性能较上一代产品有显著提升。可提供600GB/每秒GPU间连接传输速率的第三代NVIDIA NVLink、NVIDIA NVSwitch、PCIe Gen4与NVIDIA Magnum IO软件SDK的组合,可实现成千上万个GPU集群的高效扩展,这些技术得到了来自于NGC容器注册中NVIDIA市场领先生态系统的支持。
在NVIDIA A100得到中国云服务提供商的迅速采用之外,最新发布的NVIDIA A100 PCIe版本以及NVIDIA A100 80GB GPU也迅速成为了包括新华三、浪潮、联想、宁畅等在内的中国领先系统制造商的首选。
NVIDIA亚太区销售与营销副总裁Raymond Teh表示:“当今世界,高性能计算与AI应用对于计算能力的需求呈指数级增长。NVIDIA A100专为世界上最严苛、最复杂的工作负载运算提供卓越性能而设计,这些需求广泛存在于AI、数据科学、科研计算等多个领域。”
中国云服务提供商采用NVIDIA A100为其全球用户赋能
阿里云、百度智能云、滴滴云、腾讯云的大型数据中心正在迁移至基于NVIDIA Ampere架构的平台,从而可以充分利用NVIDIA A100在AI推理和训练方面提供的非凡速度与可扩展性。图像识别、语音识别,以及包括计算流体动力学、计算金融学、分子动力学在内的GPU加速高性能计算场景的快速增长,催生了对于云实例的需求。云实例可以帮助用户执行更高级的实时工作负载。
NVIDIA A100不仅可以满足全球云服务提供商用户对性能的要求,而且还可以为全球用户提供强大的可靠性支持。中国云服务提供商正在采用A100来满足各行各业的多样化需求:
中国OEM厂商致力于满足全球对搭载A100 的NVIDIA认证系统不断增长的需求
包括新华三、浪潮、联想、宁畅等在内的中国领先系统制造商也在以前所未有的速度将NVIDIA A100 GPU引入到它们的产品中,并推出了多款针对不同应用场景的系列产品,为超大型数据中心提供基于NVIDIA Ampere架构的加速系统,进而为用户提供兼具超强性能与灵活性的AI计算平台。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。