为促进医学研究、保护数据隐私以及改善患者脑肿瘤识别结果,NVIDIA携手伦敦国王学院(King’s College London)于近日推出了首个用于医学影像分析且具有隐私保护能力的联邦学习系统(federated learning system),标志着在医疗健康AI领域实现了突破性进展。
该技术论文在MICCAI大会召开期间发布——该会议于10月14日在中国深圳拉开帷幕,是全球最高端的医学影像会议之一。
NVIDIA与伦敦国王学院研究人员介绍了该技术的实施细节。
联邦学习(federated learning system)是一种能够让开发者与各企业机构利用分散在多个位置的训练数据对中心深度神经网络(DNN)进行训练的学习范式,该方法可以支持各企业机构针对共享模型开展协作,而无需共享任何临床数据。
研究人员在论文中阐述道:“联邦学习在无需共享患者数据的情况下,即可实现协作与分散化的神经网络训练。各节点负责训练其自身的本地模型,并定期提交给参数服务器。该服务器不断累积并聚合各自的贡献,进而创建一个全局模型,分享给所有节点。”
研究人员解释道,虽然联邦学习可以保证极高的隐私安全性,但通过模型反演,仍可以设法使数据重现。为了帮助提高联盟学习的安全性,研究人员研究试验了使用ε-差分隐私框架的可行性。该框架是一种正式定义隐私损失的方法,该方法可以借助其强大的隐私保障性来保护患者与机构数据。
上述突破性试验是基于取自BraTS 2018数据集的脑肿瘤分割数据实施的。BraTS 2018数据集包含有285位脑肿瘤患者的MRI扫描结果。
该数据集旨在评估面向多模态与多级分割任务的联邦学习算法。在客户端一侧,研究团队改写了一个原本用于数据集中式训练的一流训练管道,并将其用作NVIDIA Clara Train SDK的一部分。
此外,研究团队还将NVIDIA V100 Tensor Core GPU用于训练与推理。
相比于数据集中式系统,联邦学习所提供的方法可以在不共享机构数据的情况下实现相当大的分割性能。此外,试验结果显示,隐私保护与受训模型质量之间产生了自然折中。而且,通过使用稀疏向量技术,联盟学习系统可以实现严格隐私保护,且对模型性能仅产生合理的轻微影响。
深度学习是一种从医学数据中自动提取知识的强大技术。联邦学习有望有效聚合各机构从私有数据中本地习得的知识,从而进一步提高深度模型的准确性、稳健性与通用化能力。
此项研究为部署安全联邦学习方面做出了巨大的推动,并将广泛推动数据驱动型精准医学的进步。
好文章,需要你的鼓励
软件开发瓶颈是现代企业面临的关键挑战。本文探讨了消除瓶颈的有效策略,包括优化沟通、提高可视化、自动化流程和培养共同责任文化。专家建议通过异步更新、看板管理和自动化工具来提高效率。同时强调了数据质量、跨团队协作和持续改进的重要性。文章还提到了新兴技术如AI在解决瓶颈问题中的潜在应用。
随着人工智能技术的发展,深度伪造内容在网络上大量涌现,可能对我们的健康造成潜在威胁。从虚假名人代言到有害的AI生成医疗建议,深度伪造正在助长一波危险的虚假信息浪潮。本文探讨了深度伪造在医疗保健领域的负面影响,以及如何在这个充满虚假信息的时代保护自己的健康。
INCYMO.AI 推出了一个革新性的 AI 驱动创意平台,专注于移动游戏广告制作。该平台基于 10 万多个市场验证广告的数据分析,通过 AI 技术为游戏营销人员提供创意构思和广告生成服务。在创意疲劳、用户获取成本上升和隐私限制的当前环境下,该平台为游戏营销开辟了一条数据驱动的全新道路。
Databricks 与 Palantir 签署合作协议,开发出更优的大语言模型微调方法,并与 Anthropic 达成为期五年的战略联盟,将 Claude 大语言模型整合到其数据湖平台中。此次合作将为企业客户提供更强大的 AI 能力,包括军工级安全性、高效的模型训练以及全面的数据治理,助力企业打造专属 AI 应用。