第33届国际超算大会(ISC2018)目前正在德国法兰克福火热进行中。曙光在本次ISC2018大会上正式发布了新版本人工智能管理平台——“SothisAI2.0” ,进一步释放AI所需计算力,为人工智能技术发展和应用落地提供强劲动力。
此次重磅发布的新版本人工智能管理平台——SothisAI 2.0是曙光历时一年不断打磨而成的前沿产品。
“SothisAI2.0”加强了对主流AI加速芯片的支持,采用容器技术与高性能计算调度技术相融合的方式,为用户提供快速高效的机器学习、深度学习环境部署、使用和管理,也可根据用户需求进行定制化服务。
SothisAI 2.0具有高效稳定、弹性灵活、专注人工智能等特性,将为用户提供快速高效的深度学习切入方式;二次开发接口的开放,使用户可根据自身需求定制应用服务;
SothisAI 2.0加强了对主流AI加速芯片的支持性,可支持NVIDIA GPU、AMD GPU、FPGA、DCU(Deep Computing Unit)、寒武纪等目前主流的深度学习加速器,并可集成更多框架和环境。
SothisAI 2.0还具备容器化快速部署、灵活的弹性运维、对主流框架的全面支持、比虚拟机更高效等特点,用更加实用、易用的服务帮助用户快速部署AI应用。
1. 容器化快速部署
SothisAI 2.0采用容器技术,可最大化提高分布式集群资源使用率,并实现资源动态弹性扩展,让应用更快捷、可扩展、高并发,同时完成可视化管理和操控。在新增的容器镜像管理功能中,容器镜像仓库可支持公有仓库和私有仓库,方便镜像管理、迁移扩展。
优良的调度是分布式系统的核心。SothisAI 2.0在原基础上增加了Kubernetes调度器,可负责管理来源复杂的几十万个以上的jobs。它支持高可用性应用程序与运行时功能,实施最大限度减少故障恢复时间、减少相关故障概率的调度策略。基于Kubernetes调度器,SothisAI 2.0还可以提供调度、编排、服务发现等功能,同时支持节点监控、应用健康检查、弹性扩容等实用小工具。
2. 灵活的弹性运维
SothisAI 2.0采用灵活的资源调度策略,为数据集管理、模型管理、训练管理等服务提供支撑,使深度学习训练过程更加高效、弹性。同时,极大简化了新技术和新体系的运维、管理和操作流程,让构建分布式深度学习解决方案更加方便快捷。
3. 主流框架的支持
SothisAI 2.0目前支持深度学习领域主流的Caffe和TensorFlow等框架,实现从系统到数学库,再到上层框架多层深度学习开发环境的一键部署;并有图形化的Web界面和命令行形式的SSH接入方式供用户选择。
4. 比虚拟机更高效
SothisAI 2.0容器弹性、轻量级,有着传统虚拟机无可匹敌的优势。传统虚拟机启动较慢、部署困难、依赖第三方付费软件、占用的空间较大、硬盘使用GB级、可扩展性较差,性能远远差于宿主机。而容器将每个应用封装在一个单独的执行环境中,秒级启动、资源利用率高、可实现更快速的交付和部署、占用系统资源少、硬盘使用MB级、能够更轻松的迁移和扩展,性能接近宿主机原生性能。
如今,人工智能已成为一种新的生产要素,推动着我国经济的转型和发展。而在人工智能产业发展、与实体经济深度融合过程中,SothisAI 2.0将以全新姿态帮助用户释放AI所需计算力,助力企业积极应对AI时代的挑战和机遇。同时,曙光将面向行业需求持续进行技术创新,用更高水平的人工智能技术和产品赋能用户,共同推进我国人工智能的发展。
延伸阅读:
作为AI赋能者,曙光成果斐然。在2017年智能峰会上,曙光人工智能管理平台——“SothisAI”首次亮相,以“异构融合、简单易用、弹性灵活、快速部署”的特点,帮助用户快速释放 AI 所需要的计算力,自上线以来,受到了用户的高度关注与广泛好评。曙光“SothisAI 开放实验室计划”则通过整合多方资源共同研发部署,推动了AI在智慧城市、智能制造和数据密集型科学研究领域的深入应用。2018年初,曙光成功入围国家发改委发布的《2018“互联网+”、人工智能创新发展、数字经济试点重大工程拟支持项目名单》,成为全国仅有的两家获国家支持的深度学习应用开源平台建设者之一,进一步促进了“SothisAI 开放实验室计划”的开展。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。