腾讯今日开源混元MT系列语言模型,专门针对翻译任务进行优化。该系列包含四个模型,其中两个旗舰模型均拥有70亿参数。腾讯使用四个不同数据集进行初始训练,并采用强化学习进行优化。在WMT25基准测试中,混元MT在31个语言对中的30个表现优于谷歌翻译,某些情况下得分高出65%,同时也超越了GPT-4.1和Claude 4 Sonnet等模型。
IBM与NASA合作开发名为Surya的开源AI模型,专门用于预测太阳耀斑和日冕物质抛射等太空天气事件。该模型基于NASA太阳动力学观测站九年高分辨率太阳观测数据训练,在太阳耀斑分类准确性上提升16%。目标是提供两小时预警,保护卫星、电网、通信系统等关键基础设施免受类似1859年卡林顿事件的强烈太阳风暴影响。
AI2发布开源MolmoAct 7B模型,具备三维空间推理能力,挑战英伟达和谷歌在物理AI领域的地位。该模型能让机器人理解物理世界、规划空间占用并执行动作,任务成功率达72.1%,超越谷歌、微软和英伟达的模型。与传统视觉-语言-动作模型不同,MolmoAct通过空间感知令牌实现真正的3D理解,可适应不同机器人形态。
西雅图AI研究机构Ai2发布MolmoAct 7B,这是首个动作推理模型,能让机器人在执行任务前进行"思考"和规划。该模型可将自然语言指令转化为3D空间中的运动轨迹,通过1800万样本在256个H100芯片上训练完成。在SimPLER基准测试中达到72.1%的任务成功率,超越了谷歌、微软等公司的同类模型。
阿里巴巴通义千问团队发布开源编程模型Qwen3-Coder-480B-A35B-Instruct,专门用于软件开发辅助。该模型采用混合专家架构,拥有4800亿参数,支持25.6万token上下文长度,可在数秒内创建完整功能应用。在SWE-bench基准测试中得分67.0%,表现优于GPT-4和Gemini。模型基于Apache 2.0开源许可,企业可免费使用。AI研究者称其可能是目前最佳编程模型,特别适合企业级代码库理解、自动化代码审查和CI/CD系统集成。
法国AI初创公司Mistral发布首个音频模型家族Voxtral,旨在为企业提供真正可用的语音智能解决方案。该模型可转录30分钟音频,理解40分钟内容,支持问答、摘要生成和语音命令执行。Voxtral支持英语、西班牙语、法语等8种语言,提供24B参数的Small版本和3B参数的Mini版本。定价从每分钟0.001美元起,声称成本不到同类方案的一半。
中国AI初创公司月之暗面发布开源语言模型Kimi K2,采用万亿参数混合专家架构,在编程和自主代理任务上表现卓越。该模型在SWE-bench等关键基准测试中超越GPT-4,同时提供免费开源版本和低价API服务。Kimi K2具备强大的"代理"能力,能自主使用工具、编写代码并完成复杂多步骤任务,标志着开源AI模型首次在综合能力上追平甚至超越闭源竞品,可能重塑AI行业竞争格局。
法国AI公司Mistral发布开源模型Mistral Small 3.2-24B,在3.1版本基础上改进指令遵循、输出稳定性和函数调用可靠性。新版本可在单个A100/H100 80GB GPU上运行,降低了企业部署门槛。虽然整体架构未变,但在指令准确性和减少重复输出方面有显著提升,同时保持Apache 2.0开源许可。
凯捷研究院调研显示,尽管AI在自动化重复性业务任务方面带来显著成本节约,但应用场景相对简单。调研涵盖1607名来自年收入超10亿美元企业的高管,发现AI可降低客户运营成本40%、人员运营成本26%。然而,四分之三的高管仍偏好专有AI模型,其中43%选择超大规模云服务商产品。尽管开源模型如DeepSeek能实现11倍计算成本降低,企业领导者仍因技术专业性要求、安全风险和社区支持等因素,对开源AI方案保持谨慎态度。
中国AI初创公司MiniMax发布最新开源大语言模型MiniMax-M1,采用Apache 2.0许可证,支持商业应用。该模型拥有100万输入token和8万输出token的超大上下文窗口,采用创新的混合专家架构和强化学习技术。训练成本仅53.47万美元,计算效率比DeepSeek R1高75%。在数学竞赛等基准测试中表现优异,为企业提供了高性能、低成本的AI解决方案。
Hugging Face 推出轻量机器人模型 SmolVLA,基于共享数据训练,支持异步推理,能在低成本硬件上运行,加速通用机器人研发。
人工智能正在彻底改变医疗行业,重塑临床工作流程。它不仅能解决人力短缺、提高诊断准确性、管理慢性病等关键挑战,还将带来巨大投资机遇。然而,真正的挑战在于如何将AI技术与现有系统无缝集成,同时平衡成本透明度和隐私保护。开源模型、本地部署和专业生态系统的兴起,正在为医疗AI的未来指明方向。
人工智能初创公司Zyphra推出了两款开源文本转语音模型,声称只需5秒样本音频就能克隆声音。测试显示,使用不到30秒的录音即可生成逼真效果。这项技术虽然存在滥用风险,但也有积极应用前景,如帮助失声者重获声音。该模型采用开源许可证发布,为语音合成领域带来新的可能。
上海人工智能实验室对书生大模型进行重要版本升级,书生·浦语3.0(InternLM3)通过精炼数据框架,大幅提升了数据效率,并实现思维密度的跃升。仅使用4T训练数据的InternLM3-8B-Instruct,其综合性能超过了同量级开源模型,节约训练成本75%以上;同时,书生·浦语3.0首次在通用模型中实现了常规对话与深度思考能力融合,可应对更多真实使用场景。
上海AI实验室的研究团队创新性地设计了元动作思考范式来引导模型的搜索空间,使模型更高效地习得和产生多样化的推理策略组合;基于通专融合的方式进行数据合成,并通过构建大规模沙盒环境获取反馈,在不依赖o1这类已有强推理模型的情况下,实现高质量思维链的独立构建,并大幅提升模型的复杂任务处理性能。
这个模型的最大特色便是深度思维链推理,尤其是在数学、代码以及各种复杂推理任务上,可以生成数万字的推理流程,让用户深度了解模型生成内容的全过程。