[中国,济南,2022年07月30日] 由工业和信息化部、山东省人民政府主办的2022中国算力大会在济南举行,华为和国家超级计算济南中心联合打造的“数据存储集群系统”以极具创新示范作用的应用效果被大会评为“创新先锋”。
“创新先锋”是2022中国算力大会面向全社会征集在新基建领域具有突出创新性、颠覆性和引领性的重磅成果,着重要求有完整的应用落地成果,能切实推动新基建高质量建设和数字经济健康发展。
此次当选“创新先锋”的数据存储集群系统基于华为OceanStor Pacific分布式存储打造,用于将当前分散在各个超算中心、数据中心里的众多存储设备里的数据互联起来,实现了三大创新技术:首先,全局文件系统构建全局视图,打破跨域超算中心数据孤岛,让数据能被看见;其次,数据压缩,针对不同场景下不同数据类型采用不同的数据压缩算法,叠加热温冷数据智能分级,可有效节约数据存储空间和网络传输带宽,助力超算互联网的绿色低碳建设;最后,跨域数据共享和安全流动,提供传输加密并支持数据跨域等级保护。
华为与国家超级计算济南中心通过此次深度合作,让数据高能效跨域存得下、存得好、流得动,把数据孤岛连成数据网络,支持异地算力触手可及,有力支撑各行业科研创新和社会经济的数字化转型升级。同时为数据密集型超算生态共建和数据存储技术攻坚提供“超算经验”,为超算互联网领域产、学、研的合作树立了榜样。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。