AICAN 平台将带来原生兼容性和高性能,大幅加快云端移动游戏的传输速度。
北京 - 2022 年 8 月 29 日 – NVIDIA 和 Ampere Computing 于今日宣布推出 AICAN 服务器平台。该平台能够将位于云数据中心的移动游戏流式直接传输至终端用户,使用户无需下载。
AICAN 服务器平台(Android-in-Cloud-with-Ampere-and-NVIDIA)是由 Ampere Computing 和 NVIDIA 所共同打造,它采用 Ampere® Altra® 云原生处理器和 NVIDIA® GPU,不需要修改或模拟就能原生运行兼容 Arm 的移动游戏。该平台内置双插槽 Ampere Altra Max CPU,提供行业领先的 256 个内核,并可配置多达 4 个 NVIDIA A16 或 6 个 NVIDIA T4 GPU,每台服务器最多可支持 160 个并发用户(CCUs)。
NVIDIA GeForce 高级副总裁 Jeff Fisher 表示:“移动游戏是最大且增长最快的游戏市场,已有数千部游戏针对 Arm 指令集进行了优化。AICAN 平台旨在原生运行移动游戏,实现最佳的兼容性、性能、成本和用户体验,助推云端流式传输移动游戏市场的发展。”
NVIDIA 的云游戏堆栈可提供最高的密度和服务质量。该堆栈专为低延迟端到端渲染、编码和流式传输进行了优化,为安卓平台带来了最新的游戏进展。公司还专门成立了专业工程和质量保证团队,使合作伙伴能够轻松、快速地进行集成并满足所有最新游戏的需求。NVIDIA ConnectX® SmartNIC 或 BlueField® DPU 网络解决方案通过流畅的流式传输与高服务质量完善了该平台。
Ampere Computing 首席产品官 Jeff Wittich 表示:“凭借 Ampere Altra Max 领先的核密度,单机架 AICAN 服务器可以同时向大约 2,500 多个移动用户传输串流。这不仅使得广大消费者更容易从云端流式传输优质移动游戏,也同时首次为服务提供商提供极具竞争力的基础设施成本。”
图1:AICAN 平台架构
Ampere Computing 和 NVIDIA 一同对 AICAN 平台进行认证和支持,使云服务提供商和游戏开发商可以轻松构建和运营大规模的游戏串流服务。浪潮和华勤等多家领先的 OEM 服务器制造商都在构建 AICAN 服务器平台。
图2:浪潮 AICAN 服务器
浪潮服务器部门总经理赵帅表示:“浪潮与 Ampere 和 NVIDIA 紧密合作,共同设计的 Aoqin AICAN 服务器内置两个 Ampere Altra Max CPU 和多达四个 NVIDIA A16 GPU 以及两块 NVIDIA SmartNIC,机箱尺寸却只有 2U 大小。我们十分高兴能够与 Ampere 和 NVIDIA 一起帮助客户推广移动游戏流式传输解决方案。”
图 3:华勤 AICAN 服务器
华勤的 AICAN 服务器在 2U 空间内兼容 Ampere Altra 和 Altra Max 两代 CPU,并联合NVIDIA 率先适配 T4 GPU ,提高客户收益,作为在中国首发 AICAN 服务器厂商之一,华勤与 NVIDIA 及多家客户一起致力于探索云游解决方案。未来,华勤会一如既往的和 NVIDIA 紧密合作,共同助力全球云游市场发展。
图 4:腾讯先锋云游戏 APP 首页截图
全球对移动游戏流式传输的关注日益增加。腾讯先锋云游戏提供的服务正在为腾讯吸引越来越多的游戏玩家。腾讯先锋云游戏负责人方亮表示:“在 Ampere Computing 和 NVIDIA 的支持下,腾讯先锋云游戏将达到新的高度。”
图 5:腾讯先锋云游戏品牌海报
腾讯先锋云游戏负责人方亮还表示:“现在通过在 Ampere Computing 和 NVIDIA 的 Arm 服务器平台上运行云游戏,我们将多款腾讯精品游戏由 3-10G,压缩储存空间到 20M 左右,用户即便使用存储空间有限的手机也能畅玩精品游戏,这让我们能够接触和覆盖到更广泛的用户,并且提升了增量收入。”
好文章,需要你的鼓励
北京大学研究团队开发出基于RRAM芯片的高精度模拟矩阵计算系统,通过将低精度模拟运算与迭代优化结合,突破了模拟计算的精度瓶颈。该系统在大规模MIMO通信测试中仅需2-3次迭代就达到数字处理器性能,吞吐量和能效分别提升10倍和3-5倍,为后摩尔时代计算架构提供了新方向。
普拉大学研究团队开发的BPMN助手系统利用大语言模型技术,通过创新的JSON中间表示方法,实现了自然语言到标准BPMN流程图的自动转换。该系统不仅在生成速度上比传统XML方法快一倍,在流程编辑成功率上也有显著提升,为降低业务流程建模的技术门槛提供了有效解决方案。
谷歌宣布已将约3万个生产软件包移植到Arm架构,计划全面转换以便在自研Axion芯片和x86处理器上运行工作负载。YouTube、Gmail和BigQuery等服务已在x86和Axion Arm CPU上运行。谷歌开发了名为CogniPort的AI工具协助迁移,成功率约30%。公司声称Axion服务器相比x86实例具有65%的性价比优势和60%的能效提升。
北京大学联合团队发布开源统一视频模型UniVid,首次实现AI同时理解和生成视频。该模型采用创新的温度模态对齐技术和金字塔反思机制,在权威测试中超越现有最佳系统,视频生成质量提升2.2%,问答准确率分别提升1.0%和3.3%。这项突破为视频AI应用开辟新前景。