ZDNet至顶网服务器频道 04月30日 新闻消息(文/于泽):4月29日,第三届“清华大学-浪潮集团计算地球科学青年人才基金”颁奖典礼在清华大学举行,中科院寒区旱区环境与工程研究所陈仁升、国家海洋局第一海洋所鲍颖、中科院大气物理研究所张凤,以及清华大学地球系统科学研究中心黄小猛四人获得了“青年人才奖”。这也是自2012年11月该基金成立至今第三次颁发该奖项。
第三届“清华大学-浪潮集团计算地球科学青年人才基金”颁奖典礼嘉宾合影
清华大学-浪潮集团计算地球科学青年人才基金是国内计算地球科学领域首个也是目前唯一一个人才奖励计划,其由清华大学地球系统数值模拟教育部重点实验室与浪潮集团联合设立,目的在于促进国内地球系统科学与高性能计算交叉领域的研究,推动交叉青年人才培养。
其中,“清华浪潮计算地球科学青年人才奖”采取专家推荐的方式,面向年龄在40岁以下,在近五年发表或撰写过在地球系统科学领域具有开拓性思想的论文、论著,或具有地学领域原创性科学与技术创新成果的青年人才均可申请。申请奖项的人士可选择的推荐专家包括中国科学院院士、中国工程院院士;重点高等院校校长、重点科研院所院(所)长、国家和部委重点实验室主任;国家重大科学技术研究项目的首席科学家、长江学者、杰出青年基金获得者等。需注意的是,每位推荐专家仅限推荐一名候选人参与奖项评比。
而“清华浪潮计算地球科学优秀学生奖”面向的则是清华大学的研究生。清华大学的研究生如果以第一作者或第二作者身份在国内外高质量学术刊物和国际会议上发表过论文、获得发明专利或实用新型专利,或在国际科技竞赛中获得优异名次的清华大学研究生均可提出申请。
至于设立该基金的初衷,就是为环保出一份力。众所周知,全球气候正经历一次以变暖为主要特征的显着变化,对生态和环境产生了严重影响,如海平面上升、冰川融化退缩、冻土面积减少、河川径流流程缩短或断流、泥石流和滑坡发生频次增加、沙漠化不断加剧等。
值得关注的是,本届青年人才奖的获得者均在其所研究的领域有着突出的成果。比如,鲍颖自2007年开始,一直从事海洋碳循环和全球碳循环模式相关的数值模拟研究工作,作为核心成员组织建立了地球系统模式FIO-ESM并参与了CMIP5多模式比较计划,于2012年完成所有全球碳循环相关的核心试验。
张凤则完善了云-气溶胶-辐射集合模拟系统(CAR)。这可以说是人们近两年最为关心的环境问题,也就是雾霾。长期以来,正确描述云-气溶胶-辐射相互作用和反馈机制一直是地球系统模式的重要组成部分及最困难的问题之一。该问题的长期悬而未决,直接导致了当前气候模式气候敏感性因子具有极大的不同,并使气候预测具有很大的不确定度。CAR 系统具有国际前沿水平,迄今为止,国内外还未见有类似规模的工作。
作为该基金的赞助方,浪潮多年来一直为推动高性能计算领域的人才培养贡献着自己的力量。其曾先后设立“浪潮高性能计算创新奖励基金”、组织“首届中国大学生超级计算机竞赛”、连续支持中国高校参加SC、ISC全球超级计算机大赛等活动来全力推进培养我国高性能计算人才的举措;此外还举办“中国高性能计算用户大会”,为高性能计算用户之间构建科研交流、经验分享的平台;另外与中科院成立“中科院北京基因组研究所-浪潮基因组科学联合实验室”、与Intel成立“浪潮-英特尔中国并行计算联合实验室”等,加深与高性能计算高端科研单位的交流,加快自身专业能力的建设。
就如浪潮集团高性能服务器产品部总经理刘军在颁奖仪式上所讲,高性能计算如今已经被应用至越来越广泛的领域,我们称其为企业甚至国家的核心竞争力也不为过。浪潮作为国内领先的高性能计算厂商有责任为我国高性能计算事业的发展贡献力量,未来也将持续不断地推动高性能计算相关产业(人才培养、应用开发)进步。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。