8月30日,在2018浪潮技术与应用峰会(Inspur World 2018)上,浪潮重磅发布OpenStack AI云平台,实现了在OpenStack云平台上快速、轻松的构建AI开发能力。这一平台的推出契合了本届峰会提出的“云数赋能 智慧未来”战略构想,将云计算的灵活性与人工智能的“智慧”予以融合,从而使行业AI用户可以更加敏捷的利用开源云计算平台,高效完成各类AI研究与开发工作。
浪潮集团副总裁彭震表示:“以云计算、大数据、人工智能为代表的智慧计算,正加快驱动生产力跃升和商业模式变革,重塑社会运行结构和组织生态。在这一趋势驱动下,计算力实际上已经成为社会经济的核心生产力之一。为此,浪潮将持之以恒的发展融合架构IT基础设施,此次OpenStack AI云平台的推出,是浪潮在云+AI融合基础架构上的一次探索与实践。”
随着AI在社会生产生活各环节的渗透加速,可以预见的是AI将会快速步入到“应用繁荣期”,商业组织与科研机构的AI技术与应用研发将趋向多样化,传统的集群架构在灵活性上将难以满足未来AI开发的多元需求。因此,如何将云计算与AI融合,使得IT基础架构既能具备云的灵活性,也能保留AI所需的高性能,将成为推动AI真正成为一项社会性变革技术的重点所在。
此次浪潮发布的OpenStack AI云平台,可帮助行业AI用户快速便捷的构建CPU+GPU的弹性异构云环境,并实现对异构计算资源池的动态调度与分配,支撑数据管理、模型训练、模型部署等各类AI应用场景。通过对GPU虚拟机的支持,浪潮OpenStack AI云平台能够以多租户的形式,按需分配异构计算资源,从而实现AI敏捷开发。同时,多租户任务排队策略、资源分组优化策略、租户资源配额集均衡策略以及GPU共享策略等精细化调度策略,也进一步提高了GPU资源的利用率
高集成度进一步简化AI开发
浪潮自主开发的AIStation在集成度上有显著提升,极大的降低了AI开发难度并简化操作。一方面,AIStation内置优化的Caffe-MPI、TensorFlow-OPT等深度学习分布式框架,能够有效提高模型训练的扩展性,同时内置的高性能深度学习容器镜像针对Xeon SkyLake + Tesla GPU + 25G Ethernet环境予以深度优化,可充分发挥GPU计算性能,平均训练速度提高30%;另一方面,AIStation整合了训练数据、模型文件、计算资源,可提供多机并行训练服务和模型可视化工具,支持创建模型训练工作流,通过界面化操作极致简化AI开发人员工作流程,实现了秒速构建深度学习开发环境。
浪潮AI&HPC总经理刘军表示:“浪潮OpenStack AI云平台为用户提供了面向未来的云+AI融合基础架构,使其在开源云平台上能够简单、快速构建易用、先进、完整的AI开发环境,赋能更多行业快速利用人工智能技术进行产品服务开发、精细化管理等,将有力推动人工智能技术的商业价值实现与社会变革。”
好文章,需要你的鼓励
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
麻省理工学院研究团队发现大语言模型"幻觉"现象的新根源:注意力机制存在固有缺陷。研究通过理论分析和实验证明,即使在理想条件下,注意力机制在处理多步推理任务时也会出现系统性错误。这一发现挑战了仅通过扩大模型规模就能解决所有问题的观点,为未来AI架构发展指明新方向,提醒用户在复杂推理任务中谨慎使用AI工具。
Meta为Facebook和Instagram推出全新AI翻译工具,可实时将用户生成内容转换为其他语言。该功能在2024年Meta Connect大会上宣布,旨在打破语言壁垒,让视频和短视频内容触达更广泛的国际受众。目前支持英语和西班牙语互译,后续将增加更多语言。创作者还可使用AI唇形同步功能,创造无缝的口型匹配效果,并可通过创作者控制面板随时关闭该功能。
中科院自动化所等机构联合发布MM-RLHF研究,构建了史上最大的多模态AI对齐数据集,包含12万个精细人工标注样本。研究提出批评式奖励模型和动态奖励缩放算法,显著提升多模态AI的安全性和对话能力,为构建真正符合人类价值观的AI系统提供了突破性解决方案。