五月的天津万物竞秀,向心而生,群贤毕至、思想激荡,一场全球性的盛会拉开帷幕——由国家发展改革委、科学技术部、工业和信息化部、国家广播电视总局、国家互联网信息办公室、中国科学院、中国工程院、中央广播电视总台、中国科学技术协会和天津市人民政府共同主办的第七届世界智能大会(WIC)隆重开幕。
七载芳华路 群贤献策来
自2017年举办以来,WIC已连续举办了6届,习近平主席2019年向第三届世界智能大会致贺信,从战略和全局高度,深刻阐明了新一代人工智能发展的趋势,为拥抱智能新时代打造智能新经济,创造智能新生活指明了前进方向。
本次大会的开幕式暨创新发展高峰会邀请了中外政府政要、学术权威大咖、行业顶尖专家学者、知名高校校长和国内外知名企业主要负责人等近千位嘉宾齐聚津门,通过搭建国际化高端交流平台,促进行业间的开放交流合作引领智能科技产业发展风向。天津市委书记陈敏尔、新加坡国家发展部部长李智陞、教育部部长怀进鹏、白俄罗斯莫吉廖夫州执行委员会主席伊萨琴科、科学技术部部长王志刚、英国驻华贸易使节吴侨文、中国科协主席万钢相继为大会致辞。
大会还吸引了百度CEO李彦宏、联想集团董事长兼CEO杨元庆、科大讯飞董事长刘庆峰、三六零集团创始人周鸿祎等世界500强知名企业家参会。“AI不会让工作机会减少”“制造企业要把创新提升至战略高度”“抢抓通用人工智能历史新机遇”“形成‘双千亿’大模型布局等话题”,成为企业家们演讲的重点。
平行论坛“齐放” 国际大咖“潮涌”
今天下午,大会同期举办了多个平行论坛。这些平行论坛议题重点突出智能网联车、生成式人工智能、数字经济、智能制造等前沿热点,并在工业互联网、智能交通、智慧城市、智慧医疗、产教融合等议题上开展研讨,共话智能科技产业发展的前沿趋势未来。
记者发现,大会有近一半议题围绕或涉及生成式人工智能及其衍生领域展开。相关负责人表示,智能网联汽车产品检测与认证技术国际论坛、智能制造高峰论坛等一批质量高、效果好、影响广、已举办多届的品牌论坛将连续举办。
此外,本届大会国际嘉宾占比也进一步增长,来自美、德、英、法等13个国家的院士专家与企业大咖将进行高端交流。
“潮科技”“新成果”应接不暇
来到大会的展区,只是“浅”转,便感受到炫酷科技感“卷着”新潮与新奇扑面而来。机器人现场“手冲”咖啡让人意犹未尽,机器人导播讲解生动悦耳,机器人舞者令人忍俊不禁.....
忽米网国家级双跨工业互联网平台、“卓朗天工”系列工业软件、华为覆盖ICT基础设施和智能终端、易华录光磁电智能混合存储技术、中交建一体化智能架桥机等一批先进技术隆重亮相,第七届世界智能大会的“潮科技”“新成果”令观众们“应接不暇”。
据大会主办方透露,本届大会的智能科技展共有来自全球492家企业参展,其中包括80多家世界及国内500强企业、270家智能科技代表性企业以及国家超级计算天津中心、北京大学、南开大学、天津大学等51家研究机构和高校院所。
大会曲终奏雅之际,记者获悉,5月19日即将举办的“世界智能科技创新合作峰会”上,一批更加精彩的内容和重磅成果将为广大与会观众呈现。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。