Nvidia的GPU芯片已经成为机器学习蓬勃发展的基础,机器学习利用模拟大脑工作方式的软件,让计算机能够独立学习。GPU可以并行运行很多任务,这使其在语音和图像识别、电影推荐和自动驾驶汽车领域实现了一系列突破。
近日,Nvidia对其机器学习产品进行升级,推出一款新的数据中心芯片和软件,旨在加速这些服务并实现新的服务,例如人与机器之间更自然的语言交互。
特别是,这个名为TensorRT Hyperscale Inference Platform的平台专注于“推理”,也就是运行深度学习神经网络模型的过程。该模型基于得到的新数据来推断任务以及执行任务。与训练模型(通常需要更多处理能力)不同,推理通常要使用内部有标准CPU的服务器。
本周四在东京举行的Nvidia GPU技术大会上,Nvidia首席执行官黄仁勋及其高管宣布推出了这几款新产品。首先,他发布了名为Tesla T4的小型低功耗芯片,该芯片采用所谓的Turing Tensor Core设计用于推理。作为当前特斯拉P4的下一代,T4拥有2560个核心,每秒可运行高达260万亿次操作。
黄仁勋还宣布对TensorRT软件进行更新,该软件可让处理速度比CPU快40倍,它包括一个TensorRT 5推理优化器和Tensor RT推理服务器,一个软件“容器”中的微服务,可以运行主流的人工智能软件框架,并与容器编排器Kubernetes和Docker集成,后者可在Nvidia的GPU Cloud上使用。
Nvidia副总裁、加速业务总经理Ian Buck解释说,目前数据中心内有用于各种任务的软件,如图像识别、搜索和自然语言处理,因此效率不高。他说,Nvidia新推出的推理平台,让应用可以使用相同的架构和软件加速应用。例如,Google将把T4添加到其公有云中,主流服务器制造商表示他们也会使用这个平台。
例如Nvidia称,使用GPU进行推理已经帮助微软的Bing搜索引擎将延迟提高了60倍,SAP为广告客户提供的实时品牌影响信息提高了40倍。
在这次活动上,Nvidia还宣布推出了号称第一个用于自主机器(从汽车到机器人再到无人机)的AI计算平台。具体来说,有一款新的AGX嵌入式AI HPC系列服务器,该系列产品的部分包括用于数据中心的DGX系列和用于所谓的超大规模数据中心(如Google和Facebook)的HGX系列。
另一个新产品是Jetson AGX Xavier,这是Nvidia自主机器副总裁Rob Csongor所说的开发套件,是第一台用于机器人等应用的AI计算机。同时公布的合作伙伴包括建筑领域的Komatsu公司、自动船用和无人机车辆领域的Yamaha Motor公司以及工厂自动化视觉系统领域的佳能公司。Csongor说:“这是我们下一个大的市场,我们相信这将是变革性的。”
Nvidia还发布了一个关于AI推理市场看似不合理的数字:未来5年200亿美元。这可能有助于Nvidia在未来一段时间内继续保持长期好于预期的盈利结果。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。