8月28日,在 AICC2019人工智能计算大会上,浪潮与百度宣布达成人工智能合作,共建AIStation与飞桨联合方案。当前,飞桨的PaddleHub、AutoDL Design、PARL三大工具模块,及包括ERNIE持续学习语义理解框架在内的超160个有优势性能的预训练模型,现已整合在AIStation平台上,用户可同时享有敏捷高效的AI计算资源管理部署能力和专业AI框架优化服务能力。
AIStation是浪潮面向人工智能企业训练场景的人工智能Paas平台,可实现容器化部署、可视化开发、集中化管理等,为用户提供极致高性能的AI计算资源,实现高效的计算力支撑、精准的资源管理和调度、敏捷的数据整合及加速、流程化的AI场景及业务整合,有效打通开发环境、计算资源与数据资源,提升开发效率。
百度飞桨是国内唯一功能完备的开源深度学习平台,集深度学习训练和预测框架、模型库、工具组件和服务平台为一体,拥有兼顾灵活性和高性能的开发机制、工业级应用效果的模型、超大规模并行深度学习能力、推理引擎一体化设计及系统化服务等优势。
在人工智能发展的今天,各种深度学习框架层出不穷,安装部署相对复杂,典型的深度训练模型需要几天到几周的计算周期,对计算力资源消耗较大。同时大型深度学习环境往往需要动态协调数百台服务器,上千颗CPU的计算资源,而且GPU计算卡也随着服务器等资源分散在不同的环境中,利用率较低且难以统一管理。
AIStation可无缝对接算法ISV,通过与AI算法及框架开发企业合作,内置优化多种主流深度学习框架和组件,可减化用户在框架和组件等方面配置及操作,为终端客户提供全链条的场景化服务,涵盖金融、电信、教育、制作等行业场景。当前,AIStation已聚合了包含科大讯飞、第四范式、英特尔、英伟达、VMware等近20家企业的AI框架、模型和工具组件,百度飞桨的加入意味着浪潮AIStation又一次迎来新的重要合作伙伴,大家将共同创建一个开放全新的生态,赋能行业最终用户,推进产业AI化进程。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。