安静秘书长: 以“智”赋“质” “主权级基础大模型”筑力新质智能生产力加快培育 原创

中国智能计算产业联盟 安静秘书长拜访“元神进化”,就破解智能水平发展算力瓶颈,加快“主权级基础大模型”应用推广等问题,进行探讨交流。

近日,中国智能计算产业联盟秘书长安静赴首个以建立“主权级基础大模型”为目标的通用人工智能企业——“元神进化”拜访,就破解智能水平发展算力瓶颈,加快“主权级基础大模型”应用推广等问题,进行探讨交流。

安静秘书长: 以“智”赋“质” “主权级基础大模型”筑力新质智能生产力加快培育

中国智能计算产业联盟 安静秘书长

“主权级基础大模型” 为新质生产力“融慧注智”

半导体工艺限制、复杂多变的国际形势、AI芯片供应不足、算法和数据缺乏算力支持、AI芯片企业缺少统一规划、生态和市场缺少投资建设......一系列亟待解决的问题,成为我国应对大模型产业的发展的主要挑战。随着下一代人工智能蓝海奔涌而至,各国科技争相抢夺的大模型新高地,解决有关问题迫在眉睫。

2024年两会上,中国科学院计算技术研究所研究员张云泉在首次提出构建“主权级基础大模型”,提升国家竞争力,维护未来国家安全。他将生成式人工智能比作为一种新的生产工具,拥有技能更全面,应用范围更广等优势,落地于各行各业,将转化为真正的新质生产力。

安静秘书长提到,今年,NVIDIA 首席执行官黄仁勋普及了“主权AI”概念,强调一个国家应该重视对AI技术的控制权,并借此维护国家安全、促进经济增长以及推动文化发展。她强调,张云泉委员提出“主权级基础大模型”正是为确保我国AI等新兴技术自主权、使用权和发展权,对国家而言是引发生产力核心要素突破并引发质变的重要途径,是产生智能化领域新质生产力的重要驱动力。

事实上,作为实现新质智能生产力的有效手段,发展“主权级基础大模型”的初衷就是要正面解决我国通用AGI发展面临的算力和智能挑战。

安静秘书长坦言,发展“主权级基础大模型”需要实现三个目标。一是解决研发大模型的算力瓶颈和分配不平衡问题。二是服务智算产业,形成软硬件生态正向激励的循环,提升智算产业从算力服务到智能服务的转型。三是用市场化机制来建立起从基础大模型、智算产业、垂直应用到商业落地场景的完整生态。

研发、市场、生态 多元共荣智算智能产业

目前,我国面临算力和智能的双重被封锁,将智算算力和通用大模型“两弹结合”,可以构建出主权级大模型的核心,提高智算算力使用效率、效果,显著增强智算产业生产力,同时借助智算算力支持,极大提升通用大模型智能水平,突破智能水平发展的算力瓶颈。

然而,“主权级基础大模型”的性质是基础设施,想要推动其赋能行业,实现高质量发展还需要攻克核心技术研发瓶颈,加快技术普及和扩散传播。

安静秘书长强调,在这一过程中,要遵循三点原则:一是国家力量主导,有序而灵活的市场化机制运营;二是让最广泛的科研力量都能参与进来群策群力,才能适应通用人工智能技术飞速发展的研究现状;三是和智能算力产业紧密结合,智算智能一体化发展。

在研发方面,需要以多个大模型方向知名学术团队为技术支持,形成一个稳定的研发核心,围绕基础大模型的数千个具体任务类别,更多的团队参与进来,一起完善打造主权基础大模型。提供变革性技术赋能行业的同时,还要手把手的教会生态下游企业建立起通用人工智能研发和技术服务能力,帮助行业完成具体技术到相关产业的蝶变。

目前,主权级大模型已经得到了学术界响应。安静秘书长透露,在中国智能计算产业联盟的助推下,已有多位院士及教授表达了对发展主权级大模型的赞成,并强调愿意提供技术支持,为提高AI算力,摆脱对外国模型的依赖,缩短国际差距,推动国内科研进步贡献力量。

市场和生态方面,安静秘书长坦言,随着主权级大模型项目启动,在中国智能计算产业联盟的联合下,曙光智算、算力互联、并行科技、九方世纪、澎峰科技和华恒盛世等多家智算企业通过与“元神进化”公司签约,已经开始提供算力支持,提供总算力超过20Eops。我国自研的首个新一代多模态MoE架构的主权级大模型已经开始训练。

“目前,已经有多方参与通用AGI模型基础设施、大模型技术服务与产品,软件基础等方面的共建工作,加速人工智能技术的研发和商业化应用。”安静秘书长如是说。

“双轨并进” 加速智能算力瓶颈突破

算力是基础大模型领域的“通用瓶颈”。不可否认,对于“主权级基础大模型”而言,最大的挑战之一,就是对庞大的算力需求衍生的算力瓶颈问题。

安静秘书长指出,要解决该瓶颈问题,需要采取“双轨并进”的策略。既要发挥现有智算设施的算力,又要用好各类芯片,给智算产业形成反馈,促进算力技术创新。她强调,AI芯片端云一体布局,云端训练能力,端侧本地推理能力,低功耗设计等都要推进。

目前,主要的瓶颈在云端训练芯片,而端侧的AI PC等加强本地部署的推理芯片也会随着通用人工智能的普及得到极大发展。

由于算力瓶颈及GPU短缺等现状,国内厂商推出了依托CPU进行大模型训练的尝试,安静秘书长对此给予了客观的评价。她指出,尽管CPU与GPU在计算能力上存在大约三个数量级的差距,大模型训练和推理的算力需求也大致如此,但在满足存储容量门槛的前提下,使用CPU进行推理是完全可行的。当前,CPU的优势在于其巨大的存量和良好的通用性,而GPU的优势则在于其提升效率的能力。未来的发展趋势将是条件驱动的选择,即在特定条件下使用最适合的计算资源,这意味着一部分模型将在CPU上运行,而在有GPU支持的环境中则优先使用GPU。

“目前,规划的主力模型将首先是使用下一代架构的MoE语言基础模型,在此基础上叠加多模态、长文本、增强学习和搜索增强等技术,随着算力增长再增加扩散模型等。”安静秘书长如是说。

在探索突破算力瓶颈的过程中,不仅要面临硬件的制约,在制造工艺、EDA软件、芯片架构、以及知识产权等层面的突破同样重要。安静秘书长直言道:像张云泉委员所说的那样,我们应该“集中力量办大事”,将资源和智慧集中起来,共同推动这些技术的发展。这些技术的突破将为大模型的基础设施提供强有力的支撑,从而克服依赖高端训练GPU的AI芯片所面临的挑战。”

诚如张云泉委员所言,“要由国家‘出手’,‘集中力量办大事’。国内一些企业往往倾向于使用国外的开源大模型,还经常出现低水平重复与‘内卷’,延误了‘主权级大模型’的研发。”

写在最后

主权级基础大模型代表着某一时期内最高水平的大模型。这一大模型算力要求最高、智能水平最高,是一个国家AI水平的最高点、基础大模型的基础“根模型”。

面向人工智能的里程碑式奠基,基础大模型飞速发展的大开荒机遇期。安静秘书长沉言道:“当列车呼啸向前,便不必犹豫游离于路边的高草丛。留给我们的时间窗口并不长,切莫错失这一良机。”

来源:至顶网计算频道

0赞

好文章,需要你的鼓励

2024

04/09

16:17

分享

点赞

邮件订阅