12月15日至19日,NVIDA GTC中国以线上形式举办。宁畅信息产业(北京)有限公司(以下简称“宁畅”)受邀,以黄金赞助商身份首次携X640 G30等多款AI服务器产品亮相GTC。
图说:GTC中国线上大会宁畅展区
与会期间,宁畅方面表示伴随人工智能、云计算的高速发展,异构计算模式的AI服务器已成为IT行业重要算力支撑,为使GPU等核心部件性能得到充分发挥,宁畅凭借多年行业积累,通过定制模式满足用户对极致性能、稳定性等诸多需求。
多维保障GPU潜能全发挥
回顾2020年GPU领域,最重要莫过7nm 制程的NVIDIA A100 Tensor Core GPU发布,其强大的第三代Tensor Core、第三代NVLink技术,让大数据模型“推理”与“训练”效率显著提升。但要完全释放这颗业内顶级GPU潜力,则考验服务器厂商技术与设计硬实力。
宁畅工程师介绍,充分释放GPU性能第一步需要保证AI服务器有丰富扩展性。以宁畅AI服务器X640系列为例,在满配8个NVIDIA A100 /V100 Tensor Core GPU或16个NVIDIA T4 Tensor Core GPU后,X640仍有丰富PCI-E接口用于网络、存储和其他IO扩展。
丰富扩展设计,保障了定制化方案的灵活。此外,X640可通过硬件链路重新布局以实现灵活GPU 拓扑结构,并针对不同应用场景和模型进行GPU互联优化。这将极大便利用户“训练”大数据模型。
AI服务器散热也是用户关注重点。为保障全年24小时运行的AI服务器稳定,宁畅散热团队先后开发出“一体闭式循环液冷散热器”以及“分体式开环冷板液冷散热器”方案,让用户不惧长时间GPU满功率运行。
图说:宁畅闭式/开式液冷散热方案设计图示
通过定制化,宁畅液冷散热方案可满足GPU产品400-800W范围的散热需求,并可根据客户机房设备条件,选择不同模块化配套制冷机柜进行部署,从而解决客户由于液冷适配而进行外围改造的困扰。能效比方面,定制液冷方案,节省风扇能耗超60%,噪音降幅达50%以上,而成本也可控制在15-20%的提升。
除架构、硬件、散热等定制优化外,在运维、软件层面,宁畅可提供BIOS、BMC等诸多监管、运维接口定制。用户只需接上电源、网线,便可将批量的宁畅AI服务器纳入到现有的智能管理平台,第一时间让GPU发挥效能。
满足企业未来算力需求
除保障已上市GPU产品的性能全面发挥外,宁畅作为NVIDIA重要合作伙伴,可第一时间了解NVIDA前沿GPU技术与产品,依托多年来行业经验与技术积累,宁畅可预研采用新GPU架构并符合用户标准的定制服务器产品。
宁畅介绍,考虑成熟服务器产品的研发周期,通过定制预研模式用户不仅可在新品GPU产发售第一时间,批量获得基于此定制的AI服务器,还可提前与宁畅一起规划AI服务器技术路线,满足企业未来对特定AI场景的算力需求。
如今通过提供定制化服务,宁畅AI服务器已广泛应用于知名互联网、云计算公司,支撑语义识别、图像分析、机器翻译、训练推理等AI场景。在2020年10月,AI基准性能评测平台MLPerf官网显示,搭载NVIDIA T4 /A100 GPU的宁畅X640 G30 AI服务器,在ResNet、BERT、DLRM等基准测试中更是取得30项性能第一。
好文章,需要你的鼓励
Luminary Cloud宣布完成7200万美元B轮融资,专注开发"物理AI"技术。该公司云原生平台可将仿真速度提升100倍,利用物理信息模型实时预测汽车、飞机等产品性能。公司推出针对特定行业的预训练模型,包括与本田合作的汽车设计模型和与Otto航空合作的飞机开发模型。融资由西门子风投领投,将用于扩大研发团队和市场销售。
香港中文大学联合上海AI实验室推出Dispider系统,首次实现AI视频"边看边聊"能力。通过创新的三分式架构设计,将感知、决策、反应功能独立分离,让AI能像人类一样在观看视频过程中进行实时交流,在StreamingBench测试中显著超越现有系统,为教育、娱乐、医疗、安防等领域的视频AI应用开启新可能。
伦敦量子动态科技公司宣布交付业界首台采用传统半导体制造工艺的量子计算机。该系统已安装在英国国家量子计算中心,使用标准化300毫米硅晶圆,是首台自旋量子比特计算机。系统采用CMOS技术,占地约三个19英寸服务器机架,具备数据中心友好特性。公司开发的可扩展瓦片架构支持大规模生产,未来可扩展至每个量子处理单元数百万量子比特,为商业化应用奠定基础。
Atla公司发布Selene Mini,这是一个仅有80亿参数的AI评估模型,却在11个基准测试中全面超越GPT-4o-mini。通过精心的数据筛选和创新训练策略,该模型不仅能准确评判文本质量,还能在医疗、金融等专业领域表现出色。研究团队将模型完全开源,为AI评估技术的普及和发展做出贡献。