Nvidia发布了用于高性能深度学习推理的新版本TensorRT软件平台,以强化自己的人工智能战略。
TensorRT是一个将高性能深度学习推理优化器与运行时相结合的平台,可为AI应用提供低延迟、高吞吐量的推理。
推理是AI的一个重要方面,AI训练涉及算法理解数据集的能力演化,而推理是指AI能够对这些数据进行操作以推断特定查询的答案。
新版本的TensorRT在性能方面有了显着改善,包括大幅缩短了在最先进AI语言模型之一——Bidirectional Encoder Representations from Transformers -Large(BERT-Large)——上的推理时间。众所周知,BERT-Large是一种自然语言处理训练方法,涉及在大型文本语料库(如维基百科)上训练通用语言理解模型,然后把该模型作为下游NLP任务的基础,例如回答人们的问题。
Nvidia表示,TensorRT 6新增的优化功能可以将B44与T4 GPU的算法推理时间缩短至5.8毫秒,低于之前的10毫秒性能阈值。
Nvidia表示,这次改进的性能足够高,使得BERT可以被企业首次部署到生产环境中。传统观点认为,应该在不到10毫秒的时间内执行NLP模型,才能提供自然的、引人入胜的体验。
Nvidia表示,还对该平台进行了优化,加速了对于语音识别、医疗应用3D图像分割、工业自动化中基于图像的应用相关任务的推断。
Nvidia表示,TensorRT 6还增加了对动态输入批大小的支持,这有助于加速AI应用,例如计算需求波动的在线服务等。TensorRT Open Source Repository 也有升级,新增的训练样本有助于加快基于语言和图像的应用的推断。
Constellation Research分析师Holger Mueller表示,这次改进很及时,因为会话AI平台的竞争正在全面展开。
“但是Nvidia仍然需要解决下一代应用的本地部署问题,除非它设法将TensorRT平台变成公有云。在这方面Nvidia有很好的经验,但需要一定的时间才能实现。”
Nvidia表示,现在已经可以通过产品页面下载TensorRT 6平台。
好文章,需要你的鼓励
Snap 推出 Lens Studio 的 iOS 应用和网页工具,让所有技能层次的用户都能通过文字提示和简单编辑,轻松创建 AR 镜头,包括生成 AI 效果和集成 Bitmoji,从而普及 AR 创作,并持续为专业应用提供支持。
这项研究由香港理工大学和新加坡国立大学的团队共同完成,提出了R?ec,首个将推理能力内置于大型推荐模型的统一框架。与传统方法不同,R?ec在单一自回归过程中实现了推理生成和物品预测的无缝整合。研究者还设计了RecPO优化框架,无需人工标注即可同时提升模型的推理和推荐能力。实验结果显示,R?ec在三个数据集上显著超越现有方法,在Hit@5和NDCG@20指标上分别提升68.67%和45.21%。这一突破为下一代智能推荐系统开辟了新方向。
这项研究提出了CURE框架,通过强化学习让大语言模型同时学习编写代码和生成单元测试两种能力,无需使用标准代码作为监督。团队开发的ReasonFlux-Coder模型在仅用4.5K编程问题训练后,便在多个基准测试中超越了同类模型,代码生成准确率提高5.3%,最佳N选1准确率提高9.0%。该方法不仅提升了模型性能,还提高了推理效率,同时为降低API调用成本和无标签强化学习提供了新思路。