Nvidia的GPU芯片已经成为机器学习蓬勃发展的基础,机器学习利用模拟大脑工作方式的软件,让计算机能够独立学习。GPU可以并行运行很多任务,这使其在语音和图像识别、电影推荐和自动驾驶汽车领域实现了一系列突破。
近日,Nvidia对其机器学习产品进行升级,推出一款新的数据中心芯片和软件,旨在加速这些服务并实现新的服务,例如人与机器之间更自然的语言交互。
特别是,这个名为TensorRT Hyperscale Inference Platform的平台专注于“推理”,也就是运行深度学习神经网络模型的过程。该模型基于得到的新数据来推断任务以及执行任务。与训练模型(通常需要更多处理能力)不同,推理通常要使用内部有标准CPU的服务器。
本周四在东京举行的Nvidia GPU技术大会上,Nvidia首席执行官黄仁勋及其高管宣布推出了这几款新产品。首先,他发布了名为Tesla T4的小型低功耗芯片,该芯片采用所谓的Turing Tensor Core设计用于推理。作为当前特斯拉P4的下一代,T4拥有2560个核心,每秒可运行高达260万亿次操作。
黄仁勋还宣布对TensorRT软件进行更新,该软件可让处理速度比CPU快40倍,它包括一个TensorRT 5推理优化器和Tensor RT推理服务器,一个软件“容器”中的微服务,可以运行主流的人工智能软件框架,并与容器编排器Kubernetes和Docker集成,后者可在Nvidia的GPU Cloud上使用。
Nvidia副总裁、加速业务总经理Ian Buck解释说,目前数据中心内有用于各种任务的软件,如图像识别、搜索和自然语言处理,因此效率不高。他说,Nvidia新推出的推理平台,让应用可以使用相同的架构和软件加速应用。例如,Google将把T4添加到其公有云中,主流服务器制造商表示他们也会使用这个平台。
例如Nvidia称,使用GPU进行推理已经帮助微软的Bing搜索引擎将延迟提高了60倍,SAP为广告客户提供的实时品牌影响信息提高了40倍。
在这次活动上,Nvidia还宣布推出了号称第一个用于自主机器(从汽车到机器人再到无人机)的AI计算平台。具体来说,有一款新的AGX嵌入式AI HPC系列服务器,该系列产品的部分包括用于数据中心的DGX系列和用于所谓的超大规模数据中心(如Google和Facebook)的HGX系列。
另一个新产品是Jetson AGX Xavier,这是Nvidia自主机器副总裁Rob Csongor所说的开发套件,是第一台用于机器人等应用的AI计算机。同时公布的合作伙伴包括建筑领域的Komatsu公司、自动船用和无人机车辆领域的Yamaha Motor公司以及工厂自动化视觉系统领域的佳能公司。Csongor说:“这是我们下一个大的市场,我们相信这将是变革性的。”
Nvidia还发布了一个关于AI推理市场看似不合理的数字:未来5年200亿美元。这可能有助于Nvidia在未来一段时间内继续保持长期好于预期的盈利结果。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。