4月26日,在浪潮云数据中心合作伙伴大会IPF2018上,浪潮发布全新AI品牌TensorServer,明确传递浪潮对AI业务的决心与愿景。会上,浪潮还启动推动AI新生态建设的T计划,并与科大讯飞联合发布专为语音AI设计的"AI Booster"计算系统,此外还发布了首款面向AI云设计的弹性GPU服务器NF5468M5。
TensorServer要做AI的承载者与赋能者,计算点亮AI
浪潮集团副总裁彭震对TensorServer品牌予以了诠释:"Tensor是算法的基础元素,Server是计算力的基础架构。AI基础架构对于AI产业持续快速健康发展至关重要。TensorServer意在成为AI的承载者与赋能者,整合创新AI基础架构系统,以计算开启可进化的智慧世界。计算点亮AI,是品牌的Slogan。"
AI作为一项社会性变革技术,正进入全面成熟前的淘汰期。算法的不断发展突破、海量数据的挖掘训练、AI场景的前后端联动线上线下融合,均依赖于计算力的指数级增长。在这一关键时间节点,AI基础架构至关重要,其承载并支撑指数级计算力增长,为人工智能应用发展提供动力,已成为AI价值释放的引擎,决定着AI发展的速度、深度、广度。基于对AI未来发展趋势的洞察,浪潮将聚焦全栈式AI计算系统能力的建设,从平台、管理、框架、应用着手,帮助AI用户实现前端承接多源数据、后端支撑智能应用,加速AI赋能行业。
浪潮针对AI可提供整体系统方案,整合提供高性能的计算平台、管理套件、框架优化和应用加速。适合线下训练的计算加速节点采用浪潮领先业界设计的浮点运算能力强、高扩展的GPU服务器,或KNM 计算加速器,而用于线上识别的计算加速节点采用浪潮低功耗、高能效比的GPU服务器,或者低功耗定制优化推理程序的FPGA加速器。在计算节点运行如TensorFlow、Caffe-MPI、CNTK 等浪潮专家优化过的深度学习框架,同时浪潮AIStation 管理平台对深度学习框架提供任务管理、登录接口、参数调优等服务,并对节点和计算加速部件进行状态监控和调度等。顶层的人工智能行业解决方案将为行业AI转型提供赋能支撑。
启动T计划,构建创新、伙伴、人才的AI新生态
T计划是浪潮面向AI计算的启动的全新生态建设计划,旨在从创新、伙伴和人才三个维度入手,释放AI计算力的核心价值与能力,赋能企业在人工智能时代拥有坚实可靠的基础架构支撑。
按照T计划,浪潮将强化产品创新能力,针对大客户和关键场景进行定制化联合创新开发AI计算软硬件,提供端到端AI系统方案及开发工具使能行业应用。本次大会上,浪潮与科大讯飞联合发布了面向语音识别、翻译等AI应用优化设计的16卡GPU计算系统 "AI Booster",AI训练性能较通常GPU服务器提升18%。而为AI云场景设计的NF5468M5,可提供专为AI云优化的弹性配置能力、可支持AI模型训练性能最大化或AI在线推理效能最大化,并提供高性能的数据存储与通讯性能。

浪潮与科大讯飞联合发布GPU计算系统 "AI Booster"
浪潮也将依托涵盖互联网到行业AI场景应用的广度覆盖,以及持续投入的深度积累,使能合作伙伴广泛参与到AI的商业化进程中。浪潮将助力合作伙伴创新AI研发、客户开发、及共享AI力量,从建立研发能力、完善商业模式、参与行业生态等多方面与合作伙伴形成共享协作耦合,共同创造健康的AI商业生态。
浪潮的T计划将人才列为发展重点,将开启大规模AI计算人才培训计划,联合全球最大规模超算竞赛,年培训5000名大学生和工程师;建立AI计算开放合作社区,打造国际先进交流平台AICC;建立浪潮AI计算青年人才奖,设立千万元奖励基金,鼓励青年人才突破前沿尖端。
在过去的2017年,浪潮在AI计算市场取得瞩目成就。目前,浪潮已经是百度、阿里和腾讯的AI计算GPU服务器的最主要供应商,占有率达到90%,并与科大讯飞、奇虎360、搜狗、今日头条、Face++等人工智能领先公司保持在系统与应用方面的深入紧密合作,帮助客户在语音、图像、视频、搜索、网络等方面取得数量级的应用性能提升,在中国的AI计算平台占有率达到60%。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。