8月28日,在 AICC2019人工智能计算大会上,浪潮与百度宣布达成人工智能合作,共建AIStation与飞桨联合方案。当前,飞桨的PaddleHub、AutoDL Design、PARL三大工具模块,及包括ERNIE持续学习语义理解框架在内的超160个有优势性能的预训练模型,现已整合在AIStation平台上,用户可同时享有敏捷高效的AI计算资源管理部署能力和专业AI框架优化服务能力。
AIStation是浪潮面向人工智能企业训练场景的人工智能Paas平台,可实现容器化部署、可视化开发、集中化管理等,为用户提供极致高性能的AI计算资源,实现高效的计算力支撑、精准的资源管理和调度、敏捷的数据整合及加速、流程化的AI场景及业务整合,有效打通开发环境、计算资源与数据资源,提升开发效率。
百度飞桨是国内唯一功能完备的开源深度学习平台,集深度学习训练和预测框架、模型库、工具组件和服务平台为一体,拥有兼顾灵活性和高性能的开发机制、工业级应用效果的模型、超大规模并行深度学习能力、推理引擎一体化设计及系统化服务等优势。
在人工智能发展的今天,各种深度学习框架层出不穷,安装部署相对复杂,典型的深度训练模型需要几天到几周的计算周期,对计算力资源消耗较大。同时大型深度学习环境往往需要动态协调数百台服务器,上千颗CPU的计算资源,而且GPU计算卡也随着服务器等资源分散在不同的环境中,利用率较低且难以统一管理。
AIStation可无缝对接算法ISV,通过与AI算法及框架开发企业合作,内置优化多种主流深度学习框架和组件,可减化用户在框架和组件等方面配置及操作,为终端客户提供全链条的场景化服务,涵盖金融、电信、教育、制作等行业场景。当前,AIStation已聚合了包含科大讯飞、第四范式、英特尔、英伟达、VMware等近20家企业的AI框架、模型和工具组件,百度飞桨的加入意味着浪潮AIStation又一次迎来新的重要合作伙伴,大家将共同创建一个开放全新的生态,赋能行业最终用户,推进产业AI化进程。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。