ZDNet至顶网服务器频道 03月25日 新闻消息:深度学习(Deep Learning)是近年来机器学习领域的热点。有分析认为,深度学习将成为未来计算机发展的必然趋势,而从谷歌大脑计划所引申出的众多“脑计划”也说明深度学习已经成为目前许多互联网企业在语音识别、图像识别等领域取得突破性进展的方向之一。在日前举行的全球最知名GPU技术大会GTC 2015上,来自中国的浪潮公司发布了首款高性能MPI集群版的Caffe深度学习计算框架,并开源公布所有代码,为深度学习的用户提供了更便捷、更高效的应用手段。
深度学习的表现方式是通过构建深层神经网络,来模拟人类大脑的工作原理,进而实现类似人脑思维方式的计算形式。我们都知道大脑的复杂程度是不言而喻的,因此深度学习所构建的神经网络也相当庞大,运行过程中需要海量的计算能力,这也为高性能计算提供了全新用武之地。继传统的科研应用之后,高性能计算凭借深度学习获得了全新的应用市场,以浪潮为首的中国高性能计算企业更是为深度学习进行了大量的研究工作。
CNN算法是深度学习领域所普遍采用的一项神经网络的构建模型,通过将特定的数据池如 ImageNet导入该模型进行层层训练,才能使机器达到人类要求的某项能力。 ImageNet是目前最常用的视觉数据池,它由斯坦福计算机科学家李飞飞(Fei-Fei Li)建设,里面包含了 1400 万经过标签分类的材料,囊括五花八门的图像。然而通过传统的CNN模型训练ImageNet非常耗时,大概需要几十天的时间才能完成训练。Caffe是目前最快的CNN架构,它最早由UC伯克利实验室完成单机单卡的开发,针对深度卷积神经网络(Deep Convolutional Neural Networks,CNN)训练所设计,传统CNN方法的耗时问题大大改善。然而随着训练模型越来越复杂、训练样本数越来越大,对于用户的使用来说,单机单卡已经不能满足用户的需求。
本次浪潮发布的集群版Caffe计算框架正是切中当下深度学习的迫切需求,它采用高性能计算行业成熟的MPI技术对Caffe版本进行数据并行的优化,该并行caffe计算框架基于伯克利的caffe架构进行开发,完全保留了原始caffe架构的特性,即:纯粹的C++/CUDA架构,支持命令行、Python和MATLAB接口等多种编程方式,具备上手快、速度快、模块化、开放性等众多特性,为用户提供了最佳的应用体验。
浪潮开发的集群并行Caffe计算框架已经在某超级计算机上进行部署并测试,测试结果显示,在保证正确率相同的情况下,浪潮Caffe在8节点上并行计算效率上提升10.7倍,大大提升了计算速度,加速业务的快速进行。浪潮已经将其开发的集群并行版Caffe软件代码开源发布在Github,这将有助于让更多的用户方便了解和应用这款软件,加速深度学习的应用发展。
好文章,需要你的鼓励
随着AI广泛应用推动数据中心建设热潮,运营商面临可持续发展挑战。2024年底美国已建成或批准1240个数据中心,能耗激增引发争议。除能源问题外,服务器和GPU更新换代产生的电子废物同样严重。通过采用模块化可修复系统、AI驱动资产跟踪、标准化数据清理技术以及与认证ITAD合作伙伴合作,数据中心可实现循环经济模式,在确保数据安全的同时减少环境影响。
剑桥大学研究团队首次系统探索AI在多轮对话中的信心判断问题。研究发现当前AI系统在评估自己答案可靠性方面存在严重缺陷,容易被对话长度而非信息质量误导。团队提出P(SUFFICIENT)等新方法,但整体问题仍待解决。该研究为AI在医疗、法律等关键领域的安全应用提供重要指导,强调了开发更可信AI系统的紧迫性。
超大规模云数据中心是数字经济的支柱,2026年将继续保持核心地位。AWS、微软、谷歌、Meta、甲骨文和阿里巴巴等主要运营商正积极扩张以满足AI和云服务需求激增,预计2026年资本支出将超过6000亿美元。然而增长受到电力供应、设备交付和当地阻力制约。截至2025年末,全球运营中的超大规模数据中心达1297个,总容量预计在12个季度内翻倍。
威斯康星大学研究团队开发出Prithvi-CAFE洪水监测系统,通过"双视觉协作"机制解决了AI地理基础模型在洪水识别上的局限性。该系统巧妙融合全局理解和局部细节能力,在国际标准数据集上创造最佳成绩,参数效率提升93%,为全球洪水预警和防灾减灾提供了更准确可靠的技术方案。