Mass General Brigham 是首批在 Nuance 精准成像网络上加速端到端 AI模型开发和临床工作流部署的机构之一
Nuance Communications 与 NVIDIA 近日宣布展开合作,首次使放射科医生和其他临床医生能够大规模地直接使用 AI 诊断工具,以更低的成本为患者提供更完善的护理。
此次合作将国家级规模的Nuance 精准成像网络(将诊断影像中的患者洞察传递到临床和管理工作流中的 AI 云平台)和 MONAI(由 NVIDIA 联合创立并加速的开源、专业医学影像 AI 框架)相结合,对医学影像 AI 模型进行安全、有效的验证、部署与评估。
Mass General Brigham 是首批使用 MONAI 和 Nuance 精准成像网络来制定一套独特工作流的大型医疗中心之一。该医疗中心将医学影像模型的开发、应用打包、部署和临床反馈相连通,进而能够完善模型。Mass General Brigham 有超过 8 万名员工,每年为 150 万名患者提供护理,每年研究支出达 23 亿美元。
该医疗中心通过 MONAI 和 Nuance 精准成像网络的结合,部署了一个乳腺密度 AI 模型,将等待结果的时间从数天缩短到仅 15 分钟。女性患者现在可以在离院之前和临床医生讨论扫描结果和下一步措施,避免了等待结果过程中的压力和焦虑。
Mass General Brigham 首席数据科学官 Keith J. Dreyer 博士表示: “通过结合 NVIDIA 和 Nuance 的技术,我们的 AI 研究者可以专注于模型的训练和开发,无需再进行繁琐的基础工作。这让我们能够更加轻松地向临床医生提供 AI 驱动的洞察,从而助力其提供最完善的护理、缩短治疗时间并改善患者的结果。”
诊所与研究之间的连续反馈回路将模型适应时间从数年减少到几周。原本长达几个月的数据领域转移,现在只需要几周,而原本需要几小时的问题检测和修复,现在也只需要几分钟。这也让 Mass General Brigham 减少了医学影像 AI 应用的开发和维护成本。
NVIDIA 医疗业务发展总监 David Niewolny 表示: “由于临床工作流的复杂性以及缺乏标准、应用和部署平台,放射学 AI 的规模化应用一直都受到限制。此次合作清除了这些障碍,使护理点能够以前所未有的速度获得 AI 的非凡功能。”
Nuance Communications 执行副总裁兼首席战略官 Peter Durlach 表示: “Nuance和 NVIDIA 的这次战略合作让所有人都能更加轻松将训练好的影像诊断 AI 模型大规模地部署到当前的临床应用中。我们正在通过合作,有效地解决将医疗洞察从科研实验室带到临床的难题。AI 成像技术开发者现在能够更快地部署其解决方案,以助力改变成像工作流,提高患者的疗效和卫生系统的财务业绩。”
基于微软 Azure 的 Nuance 精准成像网络使超过 12000 家医疗机构以及 80% 使用 Nuance PowerScribe 放射学报告和 PowerShare 影像共享解决方案的美国放射科医生能够访问临床工作流中的整套 AI 工具生态系统并获得洞察。
医学影像界构建的 MONAI 的初衷是将开创性的研究和 AI 应用转化成临床成果。MONAI 中的加速处理流程 MONAI Deploy 提供一个 MONAI 应用包(MAP)。这个应用包可通过 DICOM 等互操作性标准,轻松集成到不同数据中心和云环境中的医疗系统中。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。