VGN5i实例将NVIDIA Quadro虚拟工作站功能引入阿里云市场
美国加利福尼亚州圣何塞——GPU技术大会——2019年3月18日——今天,在硅谷举办的2019年NVIDIA GPU技术大会(GTC)上,阿里云发布了国内首个公共云虚拟GPU异构计算产品VGN5i实例,打破了传统直通模式的局限,可以提供比单颗物理GPU更细粒度的服务,帮助企业用户降低成本、提高业务运维效率。
据悉,该产品基于NVIDIA Tesla P4 GPU,支持多种规格,企业可以按需选择适当的实例规格或者选择云市场NVIDIA Quadro虚拟工作站(Quadro vWS),该产品适用于云游戏、AR/VR以及图形处理等随需应变的GPU计算场景。阿里云表示,5月还将率先发布基于NVIDIA T4的GPU异构计算产品VGN6i实例,NVIDIA T4采用最新的Turing架构,在虚拟化环境中更为灵活,NVIDIA T4 GPU拥有可加速深度学习和推理工作流程的Tensor Core,以及可加速光线追踪和批量渲染的RT Core。对于GPU密度较低的工作负载而言,VGN6i最小可以提供单颗GPU十六分之一的虚拟工作站性能。
云端异构计算并非单纯地堆积硬件性能,需要做深度的软硬件结合及优化才能发挥其性能优势。阿里巴巴集团在异构计算领域拥有多年研发经验,该技术大规模应用于拍立淘、商品分类等场景。2017年10月,阿里云将自身积累多年的技术对外开放,面向企业推出了业界最全的异构计算家族,以及基于一个异构平台的高性能计算平台E-HPC,当用户业务遇到业务高峰时可以在数分钟内实现扩容,大幅降低了企业使用异构计算能力的门槛,目前已服务于新浪微博、旷视科技、中国工程院等众多企业和机构。
然而,在不少使用异构计算服务的场景中,“计算资源过剩”问题也尤为明显。以云游戏为例,企业通常仅需要一颗物理GPU几分之一的计算能力即可流畅完成图形或视觉计算;人工智能领域也存在类似问题,深度学习推理场景对GPU的计算资源消耗可能仅仅是训练阶段的数十分之一,甚至更少。对于这类应用场景而言,云计算可以助力灵活性的提升和成本的降低。
为此,阿里云首次基于KVM架构与NVIDIA合作研发了异构计算产品。据了解,该产品集成了阿里云智能资源调度技术,可以为用户提供基于工作负载需要的资源分配;同时,还采用了安全隔离技术,实现不同用户之间的强隔离,有效防止信息泄漏;除此之外,QoS控制技术保障了每个用户的GPU资源不被其他租户抢占。阿里云智能异构计算产品专家张新涛表示,“随着GPU异构计算产品的推出,阿里云实现了基于NVIDIA GPU的异构计算场景全覆盖,可以为用户提供从灵活、随需而变的计算到高性能计算的服务。”
作为全球前三、国内第一的云服务商,阿里云拥有丰富的异构计算产品,具备智能调度、自动运维、实时扩容等能力,结合业界首个自研的异构计算加速框架Ali-Perseus,可以同时支持TensorFlow、Caffe、MxNet、Pytorch等流行机器学习框架在集群训练和推理时的加速,最高可以将深度学习任务成本降低50%以上。2018年12月,在斯坦福大学发布的最新DAWNBench深度学习推理榜单,阿里云异构计算获得了图像识别性能及成本双料冠军。
好文章,需要你的鼓励
谷歌地图将集成Gemini人工智能技术,旨在将其升级为一个"全知型副驾驶"助手。这一整合将大幅提升地图服务的智能化水平,为用户提供更加个性化和全面的导航体验。通过AI技术的加持,谷歌地图有望在路线规划、地点推荐和实时信息服务等方面实现重大突破。
这项由圣母大学和IBM研究院联合开展的研究,开发出了名为DeepEvolve的AI科学助手系统,能够像人类科学家一样进行深度文献研究并将创新想法转化为可执行的算法程序。该系统突破了传统AI要么只能改进算法但缺乏创新、要么只能提出想法但无法实现的局限,在化学、生物学、数学等九个科学领域的测试中都实现了显著的算法性能提升,为AI辅助科学发现开辟了新的道路。
微软研究人员发布新的仿真环境来测试AI智能体,研究显示当前智能体模型容易受到操纵。该名为"Magentic Marketplace"的合成平台让客户智能体与商家智能体进行交互实验。测试包括GPT-4o、GPT-5和Gemini-2.5-Flash等模型,发现智能体在面临过多选择时效率下降,且在协作方面表现不佳。研究揭示了AI智能体在无监督环境下的性能问题。
卡内基梅隆大学研究团队通过3331次大规模实验,系统揭示了代码训练如何提升AI推理能力。研究发现,代码的结构特性比语义内容更重要,适当的抽象形式(如伪代码)可以达到与原始代码相同的效果。不同编程语言产生差异化影响:低抽象语言有利于数学推理,Python更适合自然语言任务。这些发现为AI训练数据的科学化设计提供了重要指导。