Tesla T4 GPU及全新TensorRT软件可助力实现智能语音、视频、图像和推荐服务
东京—GTC Japan—2018年9月13日—NVIDIA今日推出全新人工智能数据中心平台,为语音、视频、图像和推荐服务提供业界最先进的推理加速,从而推动全球AI服务的发展。
NVIDIA TensorRT超大规模推理平台采用基于突破性的NVIDIA Turing架构的NVIDIA Tesla T4 GPU,以及一整套完整的新推理软件。
该平台可为端到端应用提供最快性能和更低延迟,助力超大规模数据中心提供全新服务,例如增强型自然语言交互,以及对搜索查询的给出直接答案而非模糊匹配的一系列结果。
NVIDIA副总裁兼加速业务总经理Ian Buck表示:“未来人工智能将触及每种产品和服务并为之带来改进,我们的客户正在朝此方向发展。NVIDIA TensorRT超大规模平台的设计旨在实现这一目标,即比以往设想的更快、更高效。”
每天,大规模数据中心都会处理数以亿计的语音查询、翻译、图像、视频、推荐和社交媒体交互。所有这些应用的处理过程都需要在位于服务器上不同类型的神经网络进行。
为优化数据中心以实现最高吞吐量和服务器利用率,NVIDIA TensorRT超大规模平台包括实时推理软件和Tesla T4 GPU,处理查询的速度比仅采用CPU时快40倍。
NVIDIA预计AI推理行业有望在未来五年内平稳增长至200亿美元的市场。
NVIDIA TensorRT超大规模平台包括一整套硬件和软件产品,这些产品针对强大、高效的推理进行了优化。关键要素包括:
好文章,需要你的鼓励
尽管市场上频繁出现所谓的自主代理 AI,但目前尚无统一定义,多数产品不过是 LLM 的简单包装,这让 CIO 在采购时面临风险与困惑。
最新研究发现,AI生成的代码常错误引用虚构依赖库,为供应链攻击提供契机,可能导致数据泄露、植入后门等恶意行为,严重威胁系统安全。
本文讨论了 IT 自动化过程中容易忽视的流程问题、数据质量、整合难题、成本误区以及 AI 融入后带来的监管与创新挑战。
构建云边端协同的多元化算力体系已成为企业实现大模型规模化落地的关键路径,Arm正助力从云到端的大模型部署与高效运行,满足企业对更高性能、更高能效以及更强本地处理能力的迫切需求。