美国当地时间11月16日,在盐湖城举行的全球超算大会SC16上,浪潮发布了深度学习一体机D1000,该产品部署了采用NVIDIA® Tesla™ GPU技术的浪潮高性能计算集群,运行多节点并行深度学习框架Caffe-MPI,可大幅提升在人脸识别、图片分类、物体识别等应用场景的深度学习计算性能,并有效提高用户在实际业务使用深度学习的生产力。
强强联手产硕果
D1000产品整合了浪潮深度学习领域的最新技术成果,包括浪潮推动开发的并行版开源深度学习框架Caffe-MPI,英伟达专为深度学习定制的Tesla GPU及CuDNN库。浪潮展示了6节点的D1000产品方案,该方案的节点是浪潮专为深度学习开发的专用GPU服务器,每个节点配置2颗处理器及4块NVIDIA® Tesla™ M40 GPU。
浪潮集团海外总部副总经理Jay Zhang现场讲解
浪潮集团海外总部副总经理Jay Zhang表示,D1000在性能、扩展性等方面都大幅领先于以往的深度学习方案,可以满足大部分客户的应用需求。浪潮一直在加强深度学习前沿技术开发并致力于构建良好的生态系统,并联合NVIDIA等业界领先技术伙伴,将最新的技术整合为产品方案,转化为用户的实际应用价值。
Nvidia解决方案和工程架构副总裁 Marc Hamilton演讲
高性能深度学习框架Caffe-MPI
Caffe-MPI是浪潮团队推动开发并开源发布的集群版Caffe,这使得Caffe这一业界最重要的深度学习框架实现了高效多节点并行。Caffe-MPI不仅在单机多GPU方案中表现出高效的训练性能,而且支持分布式集群扩展。浪潮展示了6节点D1000产品方案在配置24块Tesla M40 GPU,并部署Caffe-MPI,训练GoogLeNet(Inception V1)网络,每秒可以处理2000张图片,在短短18小时内将GoogLeNet网络的精确度提高至78%。随着训练时间的增加,Caffe-MPI的正确率将进一步提升。此外,Caffe-MPI具有较高的可扩展性,其节点的扩展效率达到72%,并且Caffe-MPI完全保留了原始Caffe架构的特性,纯粹的C++/CUDA架构,支持命令行、Python和MATLAB接口等多种编程方式,上手快,十分易用。
D1000发布现场
让用户专注于业务应用
深度学习正在重新定义什么叫可能性,从初创时期的公司到大型互联网运营商,都在努力把深度学习融入实际业务中来拓展商业边界。Jay Zhang表示,浪潮为客户提供的是开箱即用的深度学习解决方案以及全程贴心服务,把用户从平台部署配置优化等繁琐工作中解放出来。
SC16现场吸睛的浪潮产品与方案
据了解,D1000统一整合了经过优化设计的浪潮高性能计算集群硬件、Caffe-MPI并行计算框架和依赖库、经过充分测试验证的OS和CUDA环境及集群管理调度平台 ClusterEngine,产品实现在产线进行软硬件一体化安装、配置,用户打开D1000即可使用Caffe-MPI进行深度学习业务应用。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。