为共推成渝地区双城经济圈建设,3月10日,由四川天府新区新经济局主办,四川天府新区产业投资集团有限公司、成都超算中心运营管理有限公司、四川省振兴天府数字产业有限公司、四川鲲鹏&欧拉生态创新中心承办的四川天府新区投资环境推介暨重庆两江新区四川天府新区电子信息产业旗舰联盟、成渝数字经济产业联盟交流会在重庆举行。四川天府新区新经济局党组成员、副局长潘城,成都天投集团党委委员、副总经理成大华,国铁川藏科创中心党委委员、副总经理李晏良和50家成渝企事业单位相关负责人出席了此次活动。
成渝地区双城经济圈位于“一带一路”和长江经济带交汇处,是我国西部人口最密集、产业基础最雄厚、创新能力最强、市场空间最广阔、开放程度最高的区域,在国家发展大局中具有独特而重要的战略地位。为展示天府新区重点产业集群发展的基础和产业优势,推动成渝数字经济一体化发展、提升川渝城市群整体实力,四川天府新区新经济局组织成渝企业了解相关优惠政策,促进企业交流合作,共同促进区域协同联动,实现企地合作共赢。
四川天府新区新经济局党组成员、副局长潘城表示,两江新区和天府新区同为“国家级新区”,有着深厚的情谊,双方携手成立八大产业旗舰联盟,开启了创新务实合作、共谋未来发展的崭新篇章。他详细介绍了天府新区大数据、高端软件、集成电路、绿色低碳等重点产业链布局情况:近年来,天府新区以成都科学城为核心发展区,依托公园城市良好本底,全面优化营商环境,集聚各类创新创业人才,高标准规划建设数字基础设施,大力发展数字经济核心产业,构建贯通基础科研、应用技术研发、成果转化的创新链、产业链,打造具有全国影响力的电子信息、数字产业生态圈。
国家川藏铁路技术创新中心、成都天投集团、四川天府新区产业投资集团有限公司、四川省振兴天府数字产业有限公司、四川鲲鹏&欧拉生态创新中心等天府新区企业、创新中心代表先后上台,全面展示了成都科学城的投资环境和产业生态建设。作为成渝兴隆湖综合性科学中心的承载地和西部成都科学城的创新策源地,成都科学城坚持建设以实验室为引领,大装置为核心、企业为主体、高校院所为支撑的协同创新体系。目前,成都科学城累计引聚重大项目270余个,总投资超2700亿元。
在活动最后的交流时间,天府新区企事业代表与重庆企业进行了面对面交流,为成渝两地更广泛和更深入的合作打下良好基础。代表们表示,热诚欢迎重庆企业赴天府新区做进一步交流,将成渝两地合作做深做实。
值得一提的是,成都科创生态岛项目以打造优势鲜明、要素集成的科技创新生态为建设目标,突出创新要素聚合、创新转化服务、创新成果展示、新兴产业育成、社区生活服务五大功能,正着力打造“聚、服、展、孵”于一体的综合性创新转化聚集区。与此同时,为进一步聚集高端资源要素、提升产业核心竞争力,当前天府新区正大力发展都市工业,推动工业上楼。其中,天科创智中心和凤栖谷科技创新成果转化基地作为工业上楼的典范代表,是成渝地区双城经济圈建设都市工业的示范项目。此外,国家超算成都中心运营公司与中科院重庆绿色智能技术研究院、重庆邮电大学、重庆交通大学相关院系等6家企事业单位集中签约,国家超算成都中心持续服务成渝地区双城经济圈经济高质量发展,助力“东数西算”国家战略的切实落地。
通过此次活动,在场企业对天府新区的配套设施和产业扶持政策形成初步了解,加深投资兴趣,同时成渝企业间达成技术、市场、数据等多方面的沟通,持续提升成渝电子信息产业和数字经济产业联盟的吸引力和影响力,壮大联盟队伍。未来,四川天府新区将继续以数字经济为抓手,持续推动成渝两地的区域合作,助力优质企业成渝双开花,为成渝地区双城经济圈的高质量、可持续发展注入新的动能。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。