Tesla T4 GPU及全新TensorRT软件可助力实现智能语音、视频、图像和推荐服务
东京—GTC Japan—2018年9月13日—NVIDIA今日推出全新人工智能数据中心平台,为语音、视频、图像和推荐服务提供业界最先进的推理加速,从而推动全球AI服务的发展。
NVIDIA TensorRT超大规模推理平台采用基于突破性的NVIDIA Turing架构的NVIDIA Tesla T4 GPU,以及一整套完整的新推理软件。
该平台可为端到端应用提供最快性能和更低延迟,助力超大规模数据中心提供全新服务,例如增强型自然语言交互,以及对搜索查询的给出直接答案而非模糊匹配的一系列结果。
NVIDIA副总裁兼加速业务总经理Ian Buck表示:“未来人工智能将触及每种产品和服务并为之带来改进,我们的客户正在朝此方向发展。NVIDIA TensorRT超大规模平台的设计旨在实现这一目标,即比以往设想的更快、更高效。”
每天,大规模数据中心都会处理数以亿计的语音查询、翻译、图像、视频、推荐和社交媒体交互。所有这些应用的处理过程都需要在位于服务器上不同类型的神经网络进行。
为优化数据中心以实现最高吞吐量和服务器利用率,NVIDIA TensorRT超大规模平台包括实时推理软件和Tesla T4 GPU,处理查询的速度比仅采用CPU时快40倍。
NVIDIA预计AI推理行业有望在未来五年内平稳增长至200亿美元的市场。
NVIDIA TensorRT超大规模平台包括一整套硬件和软件产品,这些产品针对强大、高效的推理进行了优化。关键要素包括:
好文章,需要你的鼓励
希腊塞萨洛尼基大学研究团队开发出MIR-L算法,通过"彩票假说"发现大型图像修复网络中的关键子网络。该算法采用迭代剪枝策略,将网络参数减少90%的同时保持甚至提升修复性能。MIR-L能同时处理去雨、去雾、降噪等多种图片问题,为资源受限设备的实时图像处理提供了高效解决方案,具有重要的实用价值和环保意义。
这项由OpenRouter公司团队和Andreessen Horowitz(a16z)投资机构联合开展的研究,于2025年12月发表。
卡内基梅隆大学团队提出DistCA技术,通过分离AI模型中的注意力计算解决长文本训练负载不平衡问题。该技术将计算密集的注意力任务独立调度到专门服务器,配合乒乓执行机制隐藏通信开销,在512个GPU的大规模实验中实现35%的训练加速,为高效长文本AI模型训练提供了新方案。