3月26日-29日,全球瞩目的人工智能(AI)领域盛会——第九届年度GPU技术大会(GTC2018)在美国硅谷召开。中科曙光作为GTC重要赞助商之一应邀亮相本次大会,除了展示最先进的技术发展动向和软硬件一体化平台,中科曙光还将与数千名与会嘉宾寻求以计算为核心的人工智能生态交流和合作。
在人工智能发展浪潮中,中科曙光依托先进计算的技术和服务扮演着AI赋能者的角色。中科曙光创立伊始,凭借国家政策支持及强大的研发能力,不断积累技术创新实力和增强产品研发能力。在牵头承担和参与多项国家重大研发和产业化项目的过程中,逐步建立起赋能AI计算的能力基础。在国家发改委发布的《2018年“互联网+”、人工智能创新发展、数字经济试点重大工程拟支持项目名单》中,中科曙光“面向深度学习应用的开源平台建设及应用项目”成功入围,是仅有的两个人工智能开源平台项目之一。
源于深厚的积累,当人工智能应用需求呈现出越来越多元化的特点时,中科曙光成功推出一体化软硬件解决方案,推动AI功能在各应用领域的实现,进一步服务全球行业客户。
在降低用户切入深度学习领域的经济和技术成本方面,曙光推出的容器化的集群调度及深度学习云服务方案——“SothisAI”具有简单易用、弹性灵活、可快速部署等特点,可协助用户快速获得AI所需的计算力,目前SothisAI平台已在多所高校、研究中心及超算中心部署使用;在应用场景覆盖方面,中科曙光推出了一套完备的深度学习服务器XMachine,支持包括GPU、 FPGA在内的多种主流深度学习加速器件,并兼容SXM2和PCI-E两种不同的接口模式。
XMachine系列服务器现已被广泛应用于智能医疗、智慧城市、语音识别、图像识别、自然语言处理等领域。对于NVIDIA在此次大会最新发布的V100 32G版本,XMachine系列深度学习服务器业已完美兼容。
作为支撑人工智能技术的幕后中坚,中科曙光率先以全局眼光谋求AI生态整合。早在2015年,中科曙光就联合中科院计算技术研究所、NVIDIA三方成立了联合实验室,这也为之后三者在人工智能领域的深入合作奠定了基础。正是基于联合实验室相关工作的逐步深入,曙光在构建人工智能产业生态方面不遗余力。
在推出SothisAI平台的基础上,中科曙光发布“SothisAI开放实验室计划”,面向全球募集AI算法、应用和服务开发者,开放中科曙光分布在全国的40多个城市云平台,以及包括地球数值模拟装置在内的若干大科学装置和先进计算中心,联合产业链上下游企业进行协同研发和服务部署,进而促进AI在智慧城市、智能制造和数据密集型科学研究领域的深入应用。
为进一步构建完善的智能计算的生态环境,中科曙光还在2017年智能峰会上发起成立了“数据中国‘智’囊团”,首批成员单位包括寒武纪、商汤科技、南瑞集团、中科三清、UCloud、徐州市公安局等在内的共计15家单位。李斌博士介绍“数据中国‘智’囊团”时表示,该团体希望联合芯片、算法、数据、应用等AI相关领域的机构,进行关键共性技术和关键行业应用的协同研发,共同推动中国人工智能生态环境的快速健康发展。
李斌博士进一步透露,基于中科曙光-ICT-NVIDIA联合实验室平台和相关博士后流动站支持的深度学习研发团队,中科曙光将在深度学习未来的发展过程中融合高性能计算和云平台等多方面技术优势,打造面向更广泛用户群体的产品应用体系,开拓人工智能的应用领域,构建良好的人工智能生态环境,助力人工智能技术在各行各业开花结果、落地成实。
大会介绍:GTC2018 大会由NVIDIA举办。本次大会的主题是“人工智能与深度学习”,8000余名全球顶尖研究人员、商业领袖、技术开发者等齐聚硅谷,共同探讨自动驾驶汽车、高性能计算、机器人、医疗保健、智慧城市、数据中心和云计算、安防、生命科学、计算机和机器视觉、虚拟现实等领域的未来技术发展。
好文章,需要你的鼓励
在迪拜Gitex 2025大会上,阿联酋成为全球AI领导者的雄心备受关注。微软正帮助该地区组织从AI实验阶段转向实际应用,通过三重方法提供AI助手、协同AI代理和AI战略顾问。微软已在阿联酋大举投资数据中心,去年培训了10万名政府员工,计划到2027年培训100万学习者。阿联酋任命了全球首位AI部长,各部门都配备了首席AI官。微软与政府机构和企业合作,在公民服务和金融流程等领域实现AI的实际应用,构建全面的AI生态系统。
查尔斯大学和意大利布鲁诺·凯斯勒基金会的研究团队首次系统性解决了同声传译AI系统延迟评估的准确性问题。他们发现现有评估方法存在严重偏差,常给出相互矛盾的结果,并提出了YAAL新指标和SOFTSEGMENTER对齐工具。YAAL准确性达96%,比传统方法提升20多个百分点。研究还开发了专门的长音频评估工具LongYAAL,为AI翻译技术发展提供了可靠的测量标准。
苹果与俄亥俄州立大学研究人员发布名为FS-DFM的新模型,采用少步离散流匹配技术,仅需8轮快速优化即可生成完整长文本,效果媲美需要上千步骤的扩散模型。该模型通过三步训练法:处理不同优化预算、使用教师模型指导、调整迭代机制来实现突破。测试显示,参数量仅1.7亿至17亿的FS-DFM变体在困惑度和熵值指标上均优于70-80亿参数的大型扩散模型。
印度理工学院团队构建了史上最大规模印度文化AI测试基准DRISHTIKON,包含64288道多语言多模态题目,覆盖15种语言和36个地区。研究评估了13个主流AI模型的文化理解能力,发现即使最先进的AI也存在显著文化盲区,特别是在低资源语言和复杂推理任务上表现不佳,为构建文化感知AI提供了重要指导。