NVIDIA加大对GPU加速基因组学的投入,在医疗影像AI领域创造了多个“第一”
在NVIDIA的深度学习和加速计算技术的帮助下,基因组学将有望成为主流。
自2003年首次对人类基因组进行测序以来,整个基因组测序流程的成本就一直在下降,而且下降的速度远快于根据摩尔定律所预测的速度。从新生儿基因组测序到开展全国人口基因组计划,该领域正在蓬勃发展,并且日趋个体化。
测序技术的进步引发了基因组数据的爆炸式增长。序列数据总量每七个月增加一倍。这一惊人的速度可能会使得到2025年基因组学产生的数据量比其他大数据源(例如天文学、Twitter和 YouTube)数据量总和的10倍还多,达到两位数的艾字节。
各种新的测序系统,比如全球最大的基因组学研究集团——华大集团的DNBSEQ-T7等正在推动这项技术的广泛应用。该系统每天可以生成高达60个基因组,相当于6TB字节的数据。
凭借华大集团的流动池技术的发展以及一对NVIDIA V100 Tensor Core GPU所提供的加速,DNBSEQ-T7的测序速度提高了50倍,令其成为迄今为止吞吐量最高的基因组测序器。
随着成本的下降和测序时间的缩短,这项技术的应用范围正在扩大,例如在分秒必争的重症监护室为新生儿进行测序。
基因组学界继续不断地从DNA中获得新的洞察。近期所取得的突破包括通过单细胞测序了解细胞水平的突变以及使用循环血DNA检测和监测癌症的液体活检。但一直以来,基因组分析都是测序流程中的计算瓶颈,而使用GPU加速可以解决这一瓶颈。
NVIDIA创始人兼首席执行官黄仁勋在GTC China上告诉大家,Parabricks团队(一家总部位于密歇根州安阿伯市的基因组学GPU软件开发公司)已加入NVIDIA的医疗团队,一同制定针对关键基因组分析流程的持续GPU加速方案。
通过与华大集团合作,Parabricks的软件可以在一小时内完成全基因组的分析。华大集团使用一台内置8个NVIDIA T4 Tensor Core GPU的服务器,证明了可以通过提高吞吐量将基因组测序成本降至2美元,这还不到现有系统成本的一半。
整个医疗行业都在发明新的医疗设备。上海联影医疗科技有限公司已推出两款业内首创的医疗设备。uEXPLORER是全球首台全身PET-CT扫描仪,对患者的全身进行静态扫描。凭借这一先进的功能,该设备能够快速、连续追踪分布在整个人体内的示踪剂。
由于能够拍摄全身,uEXPLORER大大缩短了扫描时间。与扫描时间长达20分钟以上的传统系统相比,该设备只需30秒就能完成扫描,而且图像质量十分出色。uEXPLORER还在示踪剂的剂量方面树立了新的标杆。成像所需的剂量约为常规剂量的1/50,而且不会影响图像质量。
该系统已经通过FDA批准,其采用了16个NVIDIA V100 Tensor Core GPU和8个Mellanox 56GB/s无限带宽技术(InfiniBand)网络链接来处理类似电影的扫描工作,这可能需要处理多达1TB的数据。美国加州大学戴维斯分校已经开始使用该系统。该校的科学家们帮助设计了该系统。《自然》杂志上也登载了一篇关于该系统的文章。YouTube上已有近50万观众观看了该主题的相关视频。
联影的另一个开创性系统——uRT-Linac,是首个支持从检测到预防,全套放射治疗的套装仪器。
有了这套系统,对于那些居住在偏远地区,就医不便的患者来说,他们只需来到医院一次,就可以接受诊断测试和治疗。uRT-Linac结合了CT成像、AI处理技术来协助放疗系统制定与模拟治疗方案。通过多模态技术和AI,联影改变了癌症治疗的性质。
未来,越来越多的智能医疗设备将使用AI增强信号和图像处理、优化工作流程以及分析数据。
我们能看到的有能够感知患者何时处于危险状态的患者监护仪,和可以在手术过程中为外科医生提供指导的智能内窥镜。毫不夸张地说,未来,医院中的每个传感器都将具有AI所带来的功能。
我们于近期发布的NVIDIA Clara AGX开发套件将帮助推动这一趋势。Clara AGX包含基于NVIDIA Xavier SoCs和Volta Tensor Core GPU的硬件以及Clara AGX软件开发套件,它能够让提高医疗行业智能化和个体化程度的智能医疗设备变得更加普及。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。