当前,人工智能蓬勃发展,但由于人工智能涉及诸多前沿技术及应用领域,导致实施人工智能的成本较大,高技术门槛为行业从业者带来了挑战。作为国内领先的IT信息技术厂商,近年来曙光持续加大在人工智能相关领域的研发投入力度,致力于为客户业务发展提供强大技术支撑。2018年6月份,由曙光自主研发的深度学习一体化应用服务平台SothisAI荣获国际数字商业创新协会2018ECIAwards金奖。
针对目前人工智能市场最突出的计算服务成本、研发技术门槛两个痛点,同时聚焦图像识别、语音识别、自然语言处理、智能驾驶、科研教育等应用方向,曙光正式对外发布SothisAI2.0版本,进一步为用户优化容器化的集群调度以及深度学习私有云服务方案,通过SothisAI2.0为用户提供卓越的解决方案,以帮助用户将更多的精力集中到垂直应用的工作领域。
据介绍,SothisAI2.0具有高效稳定、弹性灵活、专注人工智能等特性,为用户提供更为快速高效的深度学习切入方式,并开放二次开发接口,可供用户根据自身需求定制特化应用服务。
SothisAI2.0采用Slurm、K8S双调度引擎调度融合容器弹性扩展技术的方式,实现了资源的动态高效调度,应用的快速分发,和进程级隔离。支持多种编译环境,如CUDA、anaconda等,及常见深度学习框架,如Caffe、TensorFlow、PyTorch等。提供了丰富的数据集和典型网络模型,同时支持内容分享和应用发布功能,协助构建平台微生态。
基于容器技术,应用容器化,应用迁移方便快捷,分布式集群最大化提高资源使用率,应用集群化,让应用更强大、可扩展、支持高并发,资源动态弹性扩展,实现可视化管理和操控。容器镜像仓库支持公有仓库、私有仓库,方便镜像管理、迁移扩展。提供调度、编排、服务发现,同时还支持节点监控、应用健康检查、弹性扩容等功能。
提供应用发布订阅、数据代码分享等功能,协助平台用户提高组间协作效率,分享研发成果,精调模型参数。对于自定义环境或框架还可采用自由容器的方式进行环境构建,并通过镜像的固化和分享实现自助发布。
曙光SothisAI目前支持深度学习领域主流的Caffe和TensorFlow等框架,实现从系统到数学库再到上层框架的多层深度学习开发环境一键部署。并有图形化的Web界面和命令行形式的SSH、Jupyter接入方式供用户选择。
面向不同应用行业提供丰富的典型数据集支持,如ImageNet、MNIST、MTVL等。同时支持用户数据集共享功能,实现平台数据集仓库的用户动态实时更新。
SothisAI2.0完整覆盖深度学习训练和容器管理全流程,提供推理服务环境,为用户提供流畅的应用开发体验和一站式深度学习服务,帮助用户加速算法优化,实现产品的快速迭代和最终落地。
目前,SothisAI平台已在多所高校、研究中心以及超算中心部署使用。未来曙光将继续围绕领先技术,对产品及服务进行持续迭代,释放人工智能所需计算力,满足更加复杂、个性化业务发展需求,推动人工智能行业发展。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。