至顶网服务器频道 03月28日 新闻消息: 美国加利福尼亚州当地时间3月27日,浪潮在GTC 2018上宣布其领先的AI服务器AGX-2将支持NVIDIA最新的Volta架构,配置32GB内存的NVIDIA Tesla V100 GPU加速器,其内存容量比现有产品实现了翻倍。
浪潮参加GTC 2018大会
AGX-2 AI服务器支持在2U空间中8颗采用下一代NVLink 高速互联技术的GPU加速计算。搭载8颗配置32G HBM2高速缓存Tesla V100 GPU的AGX-2在AI训练上实现了计算性能的进一步提升。新产品在模型训练的Batch_Size(批尺寸)设置拥有更大的弹性空间,有效解决深度学习线下训练中存在的内存限制问题,更好应对大数据集或高清图像文件的处理瓶颈,帮助计算性能提升可高达40%以上。同时,AGX-2具备拓扑的灵活性可支持NVIDIA NVLink和PCIe两种GPU互联方案,采用NVIDIA NVLink时可提供GPU间高带宽低延迟互联,以及高达300GB/s的吞吐量。
浪潮集团副总裁胡雷钧表示:"浪潮拥有业界最全的AI计算服务器产品线,覆盖从单机4卡到64卡集群的不同AI计算平台。我们希望能够第一时间将全球领先的AI计算技术交付到全球用户手中,帮助他们更好应对人工智能算法快速迭代与数据爆炸式增长带来的巨大挑战,推动人工智能技术重构行业。"
浪潮是全球领先的AI计算厂商,通过打造多样化的创新硬件平台、管理调度与分析平台和深度学习框架的"平台组合",实现"前端承接多源数据、后端支撑智能应用",致力于为人工智能提供领先计算力,促进AI重构行业。目前,浪潮已为百度、阿里巴巴、腾讯等全球领先的人工智能与云计算公司提供完整的计算平台产品,并正在通过创新设计为美国公司提供领先的计算设备。
好文章,需要你的鼓励
北京大学研究团队开发出基于RRAM芯片的高精度模拟矩阵计算系统,通过将低精度模拟运算与迭代优化结合,突破了模拟计算的精度瓶颈。该系统在大规模MIMO通信测试中仅需2-3次迭代就达到数字处理器性能,吞吐量和能效分别提升10倍和3-5倍,为后摩尔时代计算架构提供了新方向。
普拉大学研究团队开发的BPMN助手系统利用大语言模型技术,通过创新的JSON中间表示方法,实现了自然语言到标准BPMN流程图的自动转换。该系统不仅在生成速度上比传统XML方法快一倍,在流程编辑成功率上也有显著提升,为降低业务流程建模的技术门槛提供了有效解决方案。
谷歌宣布已将约3万个生产软件包移植到Arm架构,计划全面转换以便在自研Axion芯片和x86处理器上运行工作负载。YouTube、Gmail和BigQuery等服务已在x86和Axion Arm CPU上运行。谷歌开发了名为CogniPort的AI工具协助迁移,成功率约30%。公司声称Axion服务器相比x86实例具有65%的性价比优势和60%的能效提升。
北京大学联合团队发布开源统一视频模型UniVid,首次实现AI同时理解和生成视频。该模型采用创新的温度模态对齐技术和金字塔反思机制,在权威测试中超越现有最佳系统,视频生成质量提升2.2%,问答准确率分别提升1.0%和3.3%。这项突破为视频AI应用开辟新前景。