至顶网服务器频道 09月20日 新闻消息(文/李祥敬):日前,国务院印发了《新一代人工智能发展规划》,提出面向2030年我国新一代人工智能发展的指导思想、战略目标、重点任务和保障措施。
人工智能不光是在政策支持方面迎来了快速发展的“东风”,在产业层面,人工智能也进入到一个全新的发展阶段。
近日,首届人工智能计算大会(AI Computing Conference,简称AICC)在京举行。本次大会由中国工程院信息与电子工程学部主办、浪潮集团承办,搭建了一个以人工智能计算为主题的国际性产学研交流合作平台。
AICC有来自中国工程院、百度、微软、阿里、腾讯、英特尔、英伟达、浪潮、讯飞、Uber、旷视、今日头条、平安科技、国家超算中心、清华大学、香港浸会大学、美国印第安纳大学等海内外数十位知名专家围绕AI计算创新主题进行研讨报告,分享了AI在互联网、云计算、超算、安防、医疗、能源、电商、智慧城市等众多行业的创新实例。
其中旷视科技首席科学家孙剑进行了主题分享,介绍了旷视科技在计算机视觉和人工智能领域的情况。成立于2011年10月的旷视可以说是人工智能创业企业中最早一批研究并应用深度学习的公司,并先后获得联想之星、创新工场、启明创投、建银国际融资,并与阿里巴巴达成战略合作。
孙剑在主题演讲中表示,作为创业公司最重要的是三点,第一是聚焦,第二是聚焦,第三还是聚焦。现在人工智有一些主要技术:语音识别、语音图像、自然语言处理等,Face++旷视科技全力聚焦在计算机视觉领域。
“计算方式的变化对人工智能产生巨大变化,旷视科技构建了一个庞大的GPU集群,并研发了内部叫Brain++的深度学习框架。除了深度学习的核心训练引擎之外,我们还有从数据流、GPU管理、模型发布的整套流水线过程,这些构成了计算机视觉的核心发动机。”孙剑说。
特别是Brain++,孙剑告诉至顶网记者,作为一个强大的深度学习平台,旷视科技用其管理庞大的GPU集群,完成从数据标注和管理、模型训练、GPU集群中心化管理、到产品化发布的“一条龙”自动化流程。
旷视科技所研究的技术路线可以算得上是非常彻底的深度学习,主要体现在两个方面,一是采用深度神经网络,第二点是最大程度地使用端到端学习。在孙剑看来,端计算的能力可以配合云计算。
孙剑还表示,我们是唯一一家自创深度学习引擎并且全员使用的创业公司。通过自研的核心计算引擎,我们实现了视觉计算的变革,涉及到从感知到认知各种复杂的AI过程。
作为旷视首席科学家,孙剑博士正在带领旷视科技的研究团队推进计算机视觉技术的进步和探索其在工业和商业上的实践。目前,旷视的人工智能云开放平台的API为全球209个国家的近30万开发者提供API接口服务;旷视的FaceID产品在全球范围内已为2.4亿人提供了身份验证服务,覆盖了80%的金融市场智能化应用,同时其智慧安防和智能地产产品也已经覆盖全国25个省份。
“旷视科技希望在计算机视觉领域有更大的突破,同时在物联网行业、移动计算行业、机器人行业进行各种方式的探索。”孙剑最后说。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。