图形芯片已经成为实现人工智能的标准,因为人工智能非常适合于加速视频游戏的并行处理。现在,图形芯片越来越多地进入云计算领域,在这个领域中那些提供图像和语音识别、自动驾驶汽车的企业可以租赁图形芯片的处理能力。
特别是,来自市场领导者Nvidia的GPU专注于在网络边缘执行AI任务,以实现服务的加速。这个被称为推理的过程指的是神经网络能够从实时呈现的新数据中进行事物推断——这与预先训练模型的过程有所不同。
近日,Nvidia首席执行官黄仁勋公布了最新的T4云GPU,并将于9月推出,在Google的云上提供。他在本周达拉斯举行的SC18超级计算大会的主题演讲中宣布了这一消息。
谷歌是第一个支持T4访问的云提供商,但它不会是最后一个。Nvidia副总裁、加速计算总经理Ian Buck在一次简报中表示:“它在云中的速度令人印象深刻。我们正处于GPU计算兴起的时代。”
谷歌的云并不是唯一支持T4的云。来自Dell EMC、IBM、联想和超微等主要计算机制造商的大约57种服务器设计也采用了这种芯片,其大小与手机相当。
Buck表示,由于体积小、运行功率相对较低,因此T4适合在网络边缘运行AI应用,此外还可用于AI模型和计算机图形的分布式训练。
谷歌似乎更专注于推理,并通过深度学习虚拟机图像在Google Compute Engine进行推理,而且很快将通过Google Kubernetes Engine,以及通过谷歌的Cloud Machine Learning Engine,用于管理容器(这种软件可以使应用在多个计算环境中无需更改即可运行)。
尽管Nvidia在加速人工智能计算工作、以及使用GPU来弥补CPU芯片(仍然是大多数计算机的核心)性能提升放缓方面处于领先地位,但由于人工智能服务的迅速发展,Nvidia也面临越来越激烈的竞争,例如来自AMD、英特尔和Xilinx等芯片制造商,以及其他如FPGA定制芯片和应用专用集成电路等其他类型芯片带来的挑战。
Moor Insights&Strategy总裁兼首席分析师Patrick Moorhead表示:“摩尔定律的放缓正在推动采用GPU、FPGA和ASIC的异构数据中心计算的加速。像AMD、英特尔、Nvidia和Xilinx这样的公司正在加速整个领域的一切。”
Nvidia今天还谈到了在超级计算领域的覆盖,在本周公布的半年度TOP500超级计算机榜单中,使用Nvidia GPU的系统数量比去年同期增长了48%,达到127套。此外,Nvidia的芯片也被用于位于榜单第一和第二位置的两套超级计算机,美国能源部部署在橡树岭国家实验室的Summit超级计算机,以及部署在劳伦斯利弗莫尔国家实验室的Sierra超级计算机。
黄仁勋表示:“这是Nvidia在超级计算领域取得突破的一年。随着摩尔定律的终结,一个又人工智能和机器学习工作负载驱动的全新HPC市场正在出现。”
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
中科院联合字节跳动开发全新AI评测基准TreeBench,揭示当前最先进模型在复杂视觉推理上的重大缺陷。即使OpenAI o3也仅获得54.87%分数。研究团队同时提出TreeVGR训练方法,通过要求AI同时给出答案和精确定位,实现真正可追溯的视觉推理,为构建更透明可信的AI系统开辟新路径。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
PyVision是上海AI实验室开发的革命性视觉推理框架,让AI系统能够根据具体问题动态创造Python工具,而非依赖预设工具集。通过多轮交互机制,PyVision在多项基准测试中实现显著性能提升,其中在符号视觉任务上提升达31.1%。该框架展现了从"工具使用者"到"工具创造者"的AI能力跃迁,为通用人工智能的发展开辟了新路径。