Nvidia的GPU芯片已经成为机器学习蓬勃发展的基础,机器学习利用模拟大脑工作方式的软件,让计算机能够独立学习。GPU可以并行运行很多任务,这使其在语音和图像识别、电影推荐和自动驾驶汽车领域实现了一系列突破。
近日,Nvidia对其机器学习产品进行升级,推出一款新的数据中心芯片和软件,旨在加速这些服务并实现新的服务,例如人与机器之间更自然的语言交互。
特别是,这个名为TensorRT Hyperscale Inference Platform的平台专注于“推理”,也就是运行深度学习神经网络模型的过程。该模型基于得到的新数据来推断任务以及执行任务。与训练模型(通常需要更多处理能力)不同,推理通常要使用内部有标准CPU的服务器。
本周四在东京举行的Nvidia GPU技术大会上,Nvidia首席执行官黄仁勋及其高管宣布推出了这几款新产品。首先,他发布了名为Tesla T4的小型低功耗芯片,该芯片采用所谓的Turing Tensor Core设计用于推理。作为当前特斯拉P4的下一代,T4拥有2560个核心,每秒可运行高达260万亿次操作。
黄仁勋还宣布对TensorRT软件进行更新,该软件可让处理速度比CPU快40倍,它包括一个TensorRT 5推理优化器和Tensor RT推理服务器,一个软件“容器”中的微服务,可以运行主流的人工智能软件框架,并与容器编排器Kubernetes和Docker集成,后者可在Nvidia的GPU Cloud上使用。
Nvidia副总裁、加速业务总经理Ian Buck解释说,目前数据中心内有用于各种任务的软件,如图像识别、搜索和自然语言处理,因此效率不高。他说,Nvidia新推出的推理平台,让应用可以使用相同的架构和软件加速应用。例如,Google将把T4添加到其公有云中,主流服务器制造商表示他们也会使用这个平台。
例如Nvidia称,使用GPU进行推理已经帮助微软的Bing搜索引擎将延迟提高了60倍,SAP为广告客户提供的实时品牌影响信息提高了40倍。
在这次活动上,Nvidia还宣布推出了号称第一个用于自主机器(从汽车到机器人再到无人机)的AI计算平台。具体来说,有一款新的AGX嵌入式AI HPC系列服务器,该系列产品的部分包括用于数据中心的DGX系列和用于所谓的超大规模数据中心(如Google和Facebook)的HGX系列。
另一个新产品是Jetson AGX Xavier,这是Nvidia自主机器副总裁Rob Csongor所说的开发套件,是第一台用于机器人等应用的AI计算机。同时公布的合作伙伴包括建筑领域的Komatsu公司、自动船用和无人机车辆领域的Yamaha Motor公司以及工厂自动化视觉系统领域的佳能公司。Csongor说:“这是我们下一个大的市场,我们相信这将是变革性的。”
Nvidia还发布了一个关于AI推理市场看似不合理的数字:未来5年200亿美元。这可能有助于Nvidia在未来一段时间内继续保持长期好于预期的盈利结果。
好文章,需要你的鼓励
微软推出 Copilot+ PC 标准,要求配备高性能 NPU,引发 AI PC 市场格局变化。英伟达虽在数据中心 AI 领域占主导,但在 PC 端面临挑战。文章分析了英伟达的 AI PC 策略、NPU 与 GPU 的竞争关系,以及未来 GPU 可能在 Copilot+ 功能中发挥作用的前景。
专家预测,随着人工智能技术的迅速发展和广泛应用,2025 年可能成为 AI 泡沫破裂的关键一年。尽管 AI 仍有望在多模态模型和自动机器学习等领域取得突破,但技术瓶颈、投资回报率下降、监管趋严以及环境和伦理问题等因素可能导致 AI 热潮降温。未来 AI 发展将更注重平衡和可持续性。
研究表明,现有的公开 AI 模型在描述大屠杀历史时过于简单化,无法呈现其复杂性和细微之处。研究人员呼吁各相关机构数字化资料和专业知识,以改善 AI 对这段历史的理解和表述。他们强调需要在 AI 系统中加入更多高质量的数据,同时在审查和信息获取之间寻求平衡。
Google 推出名为 Titans 的新型 AI 架构,是 Transformer 的直接进化版。Titans 引入了神经长期记忆、短期记忆和基于惊喜的学习系统,使 AI 更接近人类思维方式。这一突破性技术有望彻底改变 AI 范式,推动机器智能向人类认知迈进一大步。