Nvidia认为,人工智能已经发展到可以可靠地用于帮助诊断疾病和发现新药。
为了实现这些目标,Nvidia今天宣布将与两个团队展开合作,包括与美国放射学会(American College of Radiology)合作研究一种开放式AI架构和参考实施,以及与加速医学治疗研发计划(Accelerating Therapeutics for Opportunities in Medicine,ATOM)联盟合作研究一种新型超级计算机平台。
与美国放射学会合作研究的开放式AI架构和参考实施是针对放射科医生群体的,他们擅长使用医学成像来诊断和治疗疾病,这个参考实施采用了Nvidia Clara AI工具包,提供了三项关键的AI功能包括AI辅助注释、转移学习和联合学习。放射科医生可以创建新的算法、验证这些算法、与同事共享这些算法、使算法可用于各种诊断目的,同时确保训练这些算法所使用的数据是安全的。
Nvidia将Nvidia Clara AI工具包打包在新的ACR AI-LAB软件平台中,放射科医生可以免费使用该平台,并根据自己的患者数据开发AI算法。美国放射学会数据科学研究所首席医疗官Bibb Allen Jr.表示:“这标志着美国放射学会数据科学研究所这个意义非凡的项目进入了初始阶段,该项目为放射科医生提供了在任何实践环境中参与他们所在机构的人工智能开发项目中的机会,利用他们自己的患者数据,来满足他们自己的临床需求。”
这种参考实施与此前项目的关键区别之一在于,AI模型被带入患者数据,而不是数据被转移到模型中,这么做的好处是所使用的任何数据都是保密的。Nvidia称,这还有助于改善人工智能训练的多样性、改进对算法的验证、有助于告诉放射科医生如何根据他们的特定临床需求调整AI模型。
在俄亥俄州立大学的另一个试点项目中,放射科医生采用了一种最初由马萨诸塞州总医院和布莱根妇女医院“临床数据科学中心”医生打造的AI模型。俄亥俄州立大学的医生们将他们自己的数据添加到该模型中,以改进原始的算法。之后,医生们创建了一种非常准确的“心脏计算机断层扫描血管造影模型”,可用于诊断心脏病。
而且,该模型是由没有任何编程经验的放射科医生创建的,不涉及任何机密数据的共享。
“放射科医生希望参与其中,他们希望打造能够满足他们需求的算法,”Nvidia医疗副总裁Kimberly Powell这样表示。
此外,俄亥俄州立大学韦克斯纳医学中心放射学和医学影像信息学系主任Richard White说,“在不同的医院之间构建人工智能网络,将创造出更强大的算法,带来更高的效率,这些对于患者来说可能意味着更好的结果。”
Nvidia还希望通过发现新药来帮助实现更好的患者治疗效果。为此,Nvidia与ATOM联盟合作开发了一个基于AI的新平台,旨在加速这一过程。
ATOM联盟成立于2017年,旨在加快研制新药这一漫长的过程。Nvidia表示,该平台可以处理各种复杂的数据,包括物理化学特性、体外测定结果和匿名人体临床数据。有了这个平台,医生就可以使用数据驱动模型和生成分子设计来设计新药,然后在计算机环境中模拟新药的效果。
ATOM的平台运行在基于Nvidia GPU的超级计算机上,ATOM表示,将向医学研究界提供这一功能以帮助加快新药的问世。ATOM理事会成员、加州大学旧金山分校商业发展、创新和合作伙伴关系副校长Barry Selick表示:“我们通过与Nvidia合作,将推进计算能力在药物设计中发挥的作用,减少实验瓶颈,加速药物发现。”
Constellation Research分析师Holger Mueller表示,Nvidia正在努力推动人工智进入下一个发展阶段:聚焦行业。
Mueller说:“很高兴看到Nvidia致力于让构建AI应用变得更容易,特别是在医疗领域,由于涉及到专业知识和患者隐私,医务人员自己去构建这种应用是很重要的。同时与像ATOM这样具有前瞻思维的机构合作,更有助于验证和传播新的最佳实践。”
他补充说,关键问题在于一些特定行业是否需要自己专有的硬件。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。