Nvidia正在加紧为网络边缘的5G应用提供动力,在Nvidia Aerial A100 AI-on-5G平台上增加对Arm CPU的支持。
Aerial A100 AI-on-5G是一个统一的融合平台,旨在提供边缘人工智能计算和5G连接。该平台将于4月推出,它把Nvidia Aerial软件开发套件与Nvidia BlueField-2 A100融合卡相结合,后者可以将多个CPU与Nvidia的数据中心处理单元进行配对。
该平台可以为高性能、软件定义的5G基站和人工智能应用提供支持,例如精密制造的机器人、自动导引车、无人机、无线摄像头、自助结账等。换句话说,它为企业提供了在边缘部署智能服务的一个选择。
因为Aerial A100 AI-on-5G平台已经支持英特尔的x86 CPU,所以今天Nvidia在巴塞罗那MWC世界移动通信展上发布的这项公告,有望为用户带来更多选择。Nvidia称,经过Nvidia认证的系统将创造一个“简化的路径,可构建和部署自托管的vRAN,把AI和5G带给私营企业、网络设备公司、软件制造商和电信服务提供商。”
Nvidia表示,Aerial A100 AI-on-5G平台的Arm版本将配置16个Arm Cortex A78处理器,以及即将推出的Nvidia BlueField-3 DPU,从而形成一个独立的融合卡,用于在云原生5G上运行边缘AI应用虚拟无线电区域网络。
Nvidia宣布支持Arm CPU并不令人意外,因为Nvidia正在以400亿美元收购Arm的过程中,这项交易正在接受监管机构的审查,预计要到明年才能完成。
Nvidia电信行业高级副总裁Ronnie Vasishta表示:“我们正在将计算人工智能和电信5G相结合,为5G上的人工智能创建一个软件定义的平台。通过支持Arm,我们不断成长的Aerial平台将加速推进无处不在的‘AI-on-5G’。”
据称,Nvidia的BlueField-3 A100 DPU是专为人工智能和加速计算工作负载设计开发的。它针对5G连接进行了优化,旨在与CPU协同工作。该DPU负责基础设施管理任务,例如扫描网络流量中的恶意软件和调度存储容量,通常这些任务是由CPU处理的,因此把这些任务卸载到DPU,可以让CPU资源释放出来专注用于运行计算任务。”
BlueField-3 DPU将于2022年上半年上市,届时还将搭载Nvidia的AI软件库,包括预训练的模型和Aerial 5G SDK,帮助开发人员缩短部署时间,向他们的应用中添加各种AI功能。
“Bluefield-3结合了Nvidia加速计算和Arm的性能水平,这一组合有助于扩大Arm的生态系统,让网络供应商在创建和部署5G系统方面有更多的选择,”Arm公司高级副总裁、基础设施业务线总经理Chris Bergey这样表示。
首个AI-on-5G创新实验室
打造平台是一回事,但让客户采用这个平台就是另一回事了。因此,Nvidia宣布与谷歌展开合作,创建了首个AI-on-5G创新实验室。
该实验室主要面向那些希望在Nvidia这个新平台上开发和测试解决方案的网络基础设施提供商和AI软件开发者。谷歌将主要贡献他们的Google Anthos平台,用于开发多云和边缘应用。
这对开发者来说是有一定吸引力的,因为Anthos本身就是一个受欢迎的产品,让开发者可以创建由Kubernetes管理的云原生容器化应用,运行在任何类型的云或边缘基础设施上。
谷歌云网络副总裁兼总经理Shailesh Shukla表示:“通过Anthos应用平台,谷歌云将让很多垂直市场的服务提供商和企业能够在网络边缘通过5G进行无缝连接。我们很高兴能够扩大与Nvidia的合作。”
两家公司表示,希望在今年年底之前启动并运行该实验室。
Constellation Research分析师Holger Mueller认为,5G和边缘的争夺战主要是集中在是在平台方面的,谁能够开发出最吸引人的产品并且得到最多企业的采用,谁就将赢得这场竞赛。
“Nvidia在这两方面都取得了进展,一方面Nvidia在5G人工智能软件平台上增加了对Arm芯片的支持,另一方面在企业采用方面,Nvidia与谷歌展开合作,使企业能够熟悉他们的5G AI平台并使用谷歌Anthos为其构建应用。”
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。