Illustration by Nick Barclay / The Verge
据《华尔街日报》报道(https://www.theverge.com/23610427/chatbots-chatgpt-new-bing-google-bard-conversational-ai),Meta一直在抢购人工智能训练芯片并建设数据中心,以创建一个更强大的新聊天机器人,它希望能像OpenAI的GPT-4一样精密。据报道,该公司计划在2024年初开始培训新的大型语言模型,首席执行官Mark Zuckerberg计划继续以开源模式(https://www.theverge.com/2023/7/18/23799025/meta-ai-llama-2-open-source-microsoft)发布新模型,因此其他公司可以免费使用这类人工智能工具。
《华尔街日报》写道,Meta一直在购买更多的英伟达H100人工智能训练芯片,并正在加强其基础设施建设,以便这一次,它不需要依赖微软的Azure云平台来训练新的聊天机器人。该公司今年早些时候组建了一个小组来构建该模型,目的是加快创建可以模仿人类表情的人工智能工具。
据报道,Meta今年在多个LLM项目之间分配了大量的计算资源,导致人工智能研究人员流失。它还面临着生成人工智能领域的激烈竞争。OpenAI在4月份表示,它没有训练GPT-5,而且“在一段时间内不会”,但据报道,苹果每天都在向自己的“Ajax”人工智能模型投入数百万美元,它显然认为该模型甚至比GPT-4更强大。谷歌和微软都在扩大人工智能在其生产力工具中的使用,谷歌希望在谷歌助手中使用生成人工智能。亚马逊在其整个组织中也有生成性人工智能计划,可能会产生一个聊天机器人驱动的Alexa。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。