美国当地时间11月16日,在盐湖城举行的全球超算大会SC16上,浪潮发布了深度学习一体机D1000,该产品部署了采用NVIDIA® Tesla™ GPU技术的浪潮高性能计算集群,运行多节点并行深度学习框架Caffe-MPI,可大幅提升在人脸识别、图片分类、物体识别等应用场景的深度学习计算性能,并有效提高用户在实际业务使用深度学习的生产力。
强强联手产硕果
D1000产品整合了浪潮深度学习领域的最新技术成果,包括浪潮推动开发的并行版开源深度学习框架Caffe-MPI,英伟达专为深度学习定制的Tesla GPU及CuDNN库。浪潮展示了6节点的D1000产品方案,该方案的节点是浪潮专为深度学习开发的专用GPU服务器,每个节点配置2颗处理器及4块NVIDIA® Tesla™ M40 GPU。
浪潮集团海外总部副总经理Jay Zhang现场讲解
浪潮集团海外总部副总经理Jay Zhang表示,D1000在性能、扩展性等方面都大幅领先于以往的深度学习方案,可以满足大部分客户的应用需求。浪潮一直在加强深度学习前沿技术开发并致力于构建良好的生态系统,并联合NVIDIA等业界领先技术伙伴,将最新的技术整合为产品方案,转化为用户的实际应用价值。
Nvidia解决方案和工程架构副总裁 Marc Hamilton演讲
高性能深度学习框架Caffe-MPI
Caffe-MPI是浪潮团队推动开发并开源发布的集群版Caffe,这使得Caffe这一业界最重要的深度学习框架实现了高效多节点并行。Caffe-MPI不仅在单机多GPU方案中表现出高效的训练性能,而且支持分布式集群扩展。浪潮展示了6节点D1000产品方案在配置24块Tesla M40 GPU,并部署Caffe-MPI,训练GoogLeNet(Inception V1)网络,每秒可以处理2000张图片,在短短18小时内将GoogLeNet网络的精确度提高至78%。随着训练时间的增加,Caffe-MPI的正确率将进一步提升。此外,Caffe-MPI具有较高的可扩展性,其节点的扩展效率达到72%,并且Caffe-MPI完全保留了原始Caffe架构的特性,纯粹的C++/CUDA架构,支持命令行、Python和MATLAB接口等多种编程方式,上手快,十分易用。
D1000发布现场
让用户专注于业务应用
深度学习正在重新定义什么叫可能性,从初创时期的公司到大型互联网运营商,都在努力把深度学习融入实际业务中来拓展商业边界。Jay Zhang表示,浪潮为客户提供的是开箱即用的深度学习解决方案以及全程贴心服务,把用户从平台部署配置优化等繁琐工作中解放出来。
SC16现场吸睛的浪潮产品与方案
据了解,D1000统一整合了经过优化设计的浪潮高性能计算集群硬件、Caffe-MPI并行计算框架和依赖库、经过充分测试验证的OS和CUDA环境及集群管理调度平台 ClusterEngine,产品实现在产线进行软硬件一体化安装、配置,用户打开D1000即可使用Caffe-MPI进行深度学习业务应用。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。