Nvidia正在打造一款超级计算机,专门用来帮助医学成像领域的复杂计算。
超级计算机名为Clara,本周在圣何塞举行的Nvidia年度GPU技术大会上亮相。命名为Clara是为了纪念美洲红十字会创始人Clara Barton。Nvidia创始人兼首席执行官Jensen Huang给了超级计算机Clara一个标签: “虚拟化数据中心、多模式、多用户的医疗计算医疗仪器“。
全球各地的医院里安装了约300万台仪器,每年还会安装10万台新仪器,Huang预测,将该安装基群以升级仪器取而代之需要大约30年的时间。
他表示,“我们如何解决这个问题呢?我们不能让医生等30年才能够进行早期发现,不能等30年才让医生去掌握这项技术。由于有了我们的技术,我们有可能给每一台医疗仪器进行虚拟升级。”
据Huang说,超级计算现在是科学的一个基本支柱。
他表示,“我们需要更大的计算机;然后我们仍需要更大的计算机,世界需要更大的计算机,因为要完成要紧的工作,要开展要紧的开创性工作。”
他说,“科学需要超级计算机,这就是我们构建超级计算机的原因。”
他还表示,“我们在Nvidia的战略是以光一样的速度加快GPU计算。”
Nvidia医疗和人工智能业务开发副总裁Kimberly Powell与记者谈到诸如Clara一类的机器在未来的作用时表示,GPU巨头Nvidia与医学成像行业一起专注医疗保健逾10年,计算驱动医学成像行业的时间至少比这个时间还长。
她表示,“医学成像是做什么的,就是做计算、处理、数字化和人工智能。”
Huang曾详细描述过,Nvidia起步后做的就是在仪器内部进行图像重构,再提供解释图像所需的容积渲染和图像处理。
在过去五年中,Nvidia还与研究和创业社区合作,从医疗保健的角度探索人工智能的未来。
她解释说,“我们在医学成像方面非常幸运,由于有了Nvidia在过去五年中一直在开发的各种技术,现在我们可以将这些技术用来对医学成像仪器的医疗成学管线进行虚拟化。”
她表示,“我们可以拿到一些可能是来自使用年龄10年的机器的数据,然后对数据进行远程计算,进而完成各种真正的、具有创新性的计算,基本上可以为这个星球上的每台仪器都提供这种功能。”
她称,“Clara就是这个样子,其实是个平台,可以完成这种医学成像的超级计算负载。”
Nvidia打造Clara还在进行中,但超级计算机Clara所能完成的事并不是白日梦。
Clara的基本功能是个计算平台,可以实现工作负载的虚拟化,它是个可用于医学成像里各种计算的虚拟化数据中心。
Powell 接着表示,“Clara可以是部署在内部的资源,也可以部署在AWS上,它可以利用多年来我们放在一起的技术堆栈。Clara当然配有虚拟化GPU,具有Nvidia GPU容器,应用程序被容器化了,Clara最终可以利用GPU上的Kubernetes在所需的资源上有效地管理微服务。”
根据Powell的说法,Nvidia的梦想是将Clara提供给缺乏放射科医生或专科医生的地区以及那些不能像西部地区那样对放射科医生进行高水平培训的地区使用。
她表示,“我们考虑的一个方面就是,我们要确保每个人都可以用上它,要尽快将这些工具提供给可以使用它的人员。你可以在云端启动一个非常便宜的实例来访问它,你可以购买游戏GPU进行访问。”
Powell在讲到AlphaGo说,回想一下,前三场比赛,电脑击败了人类,但第四场比赛,人类击败了计算机,因为计算机教了棋手一招,可以帮他应付以前老是不知道怎么应付的事情。
她表示,“这不是淘汰,是增强。我认为我们都可以通过技术变得更好,这种技术能提高看事物的能力,大家可以从中学习,将其融入到自己的内部大脑、神经网络和体验中。”
Powell 还表示,“我这完全是推测,但你可以想象,在10年的时间里成为专家而不是需要30年,因为已经有计算机可以指出一些事情。”
Powell在讨论一些潜在的用例时说,她最近遇到了一个案例,英国有23,000条未处理的X射线片;她还说,同样,日本的仪器操作和医学检查的数字和放射科医师的人数相比之下非常地“让人迷茫”。
她表示,“我认为,现在有机会平衡一下了。”
Powell说,基因排序需要大量的数据,需要处理这些数据的计算能力,而且,基因分析的成本效率在不断提高,这些数据还在不断增长。
她解释说,“制药公司都在试图弄清楚我们如何整合这些数据以及我们如何对其进行智能分析以真正地开启精准医学之旅。”
她表示,“现在我们可以读取每天发生在身体上的东西,我认为数据整合将会改变制药行业及彻底改变医疗保健延续,因为在一个人出现症状前你已经掌握了更多的信息。”
她称,“很强大的东西,数字化...... 整固,我们将数据整到一个地方,这需要一个新的计算架构和新的计算模式,其中的很大一部分来自软件。”
Powell预计会在十一月召开的北美放射学会会议上发布更多有关Clara的详情。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。