11月8日,新华三智能终端有限公司开业典礼、新华三阅动数字产业孵化园开园典礼、新华三集团广东代表处乔迁典礼在广州同期举办,多个重要项目的成功落地标志着紫光股份旗下新华三集团在广东的产业布局和业务发展迈向了一个全新阶段,更将进一步助推岭南数字经济实现新的跨越和发展。紫光集团联席总裁兼新华三首席执行官于英涛等领导出席了本次开业庆典暨剪彩仪式。
庆典剪彩仪式
新华三集团过去深度参与了广东省的数字经济建设,打造了顺德新型智慧城市、港珠澳大桥数字化平台、广州地铁AI智慧车站等一系列创新实践案例,成为广东百行百业数字化转型值得信任的同行者。
紫光集团联席总裁兼新华三首席执行官于英涛发表祝词
于英涛表示,随着广东代表处迁入新址,以及智能终端公司和阅动数字产业孵化园正式成立,新华三也将以此为新的起点,将智能化的变革价值融入广东新型智慧城市建设和产业升级转型的过程中,携手广东各行各业迈向数字化转型的新征程。
智能终端新起点:让智能走进更多企业与家庭
当前,终端算力的提升和功能的完善,正在让智能终端成为下一个具备广阔增长空间的潜在市场。作为新华三集团产业版图中的重要一环,智能终端产品线在过去累计推出了百余款在售产品,取得了单季度出货量超过百万台的出色成绩。全新成立的智能终端公司将依托新华三在智能联接、人工智能和云计算等方面的领先实力,为数字家庭和数字小微企业提供智能化产品和一体化解决方案,并为客户提供更高品质的数字化服务。
新华三智能终端有限公司
未来,新华三智能终端公司将在“AI in ALL”智能战略的指引下,在数字家庭领域联合生态合作伙伴推出全新路由器、摄像安全及智慧屏等多种产品和服务,打造完整的智慧家庭新生态;在小微企业市场,智能终端公司将推出适合小微企业场景的更加智能简约的网络设备及多功能Mini 盒子等产品。随着业务的发展和市场的开拓,新华三智能终端公司在为广东创造千余个就业岗位,推动数字经济发展的同时,让智能化工作和生活方式惠及更多的企业及家庭,为更多人带来美好的智慧体验。
阅动数字产业孵化园:构建数字产业新生态
作为推动中国经济数字化转型的“引领型”城市,广州市正在依托丰厚的数字人才储备、完整的数字产业生态、专业高效的政府服务等优势,成为数字经济和数字产业未来发展的热土,众多创新型企业正在扎根广州、蓬勃发展。为了帮助更多初创企业获得发展的资源和空间,新华三集团旗下的阅动(广东)信息技术有限公司与合作伙伴共同成立了阅动数字产业孵化园,开创了一种共享、共担、共创的互联网产业创新模式。
新华三阅动数字产业孵化园
新华三阅动数字产业孵化园是一个集数字产业双创孵化中心、创业加速中心、科技创新服务中心、科创成果转化中心、数字化创新实验室、产业人才交流中心等于一体的孵化加速平台。未来,园区将依托新华三集团数字化产业优势,紧扣粤港澳大湾区发展战略,以服务数字化产业孵化为核心,整合园区内产业、技术,对接大湾区人才和政策,培育创新型科技企业,促进科技成果转化,构建开放式、全链条数字产业创新生态,助力黄埔区打造大湾区创新枢纽核心区,从而进一步推动广东省全域数字化发展。
面对粤港澳大湾区、“新基建”等机遇开创的百年变革机遇,广东省正通过数字产业的发展和数字技术的落地,构建“一核一带一区”区域发展新格局。作为广东数字经济发展的同行者,新华三集团也将更深层次地融入岭南的创新和变革之中,以“AI in ALL”智能战略和“数字大脑计划2020”加速广东百行百业的数字化转型,以“无界生态”战略赋能数字产业生态的创新和培育,深化合作,协力共赢,全力助推广东省数字经济迈向高质量发展的新阶段。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。