自从生命的“密码”— 基因组被科学家破解以来,人类追求速度更快、成本更低的基因测序技术的脚步一直都在继续。

在1月13日刚刚结束的摩根大通医疗健康大会上,NVIDIA发布了与初创公司 InstaDeep、慕尼黑工业大学(TUM)在基因组学大型语言模型方面的联合研究成果。研究团队使用NVIDIA超级计算机 Cambridge-1,在各种基因组数据集上,训练了参数规模从500M到2.5B不等的各种大型语言模型(LLM),经过基因组学训练的大型语言模型可将应用扩展到大量基因组学任务, 这些任务有助于了解DNA如何转录生成RNA和蛋白质,从而开启新的临床应用。
基因测序 梦想照进现实
作为人类医疗技术发展的重要一步,基因测序可通过提取人体血液或唾液,对人类的DNA、RNA、蛋白质及代谢物进行分析,从而锁定个人病变基因,以诊断、预测或预防遗传性疾病的发生。基因蕴含了人类诸多病症的秘密,使人类有机会尽早预防疾病,并多元化治疗疾病。
2001年,被誉为生命科学“登月计划”的“人类基因组计划”(HGP)历时13年,耗资近30亿美元,发布了首张人类基因组草图。此后二十年中,以数字生物学为基础的基因组测序技术取得巨大进步,将全基因组测序的成本逐步降低至不到1000美元。一时间,全球对基因测序与分析的需求量出现暴涨。
加速计算突破基因分析算力瓶颈
随着基因组测序和分析需求的激增,由此产生的数据也迎来爆发式增长。过去十年间,基因测序的数据量平均每七个月就会翻一倍, 2025年全球测序能力预计将达到Zb级别,其中,仅人类全基因组存储的数据量就将达到每年2-40Eb。
要实现精准医疗,就需要对大量基因数据做出精确的计算和分析,这意味着巨大的计算成本和时间。因此,必须有创新的技术,打破全基因组测序数据医疗应用的主要瓶颈,推动行业进一步向前发展。
基因组测序与分析属于标准的计算密集型任务,而GPU擅长并行计算,可以将复杂计算问题分解为很多小任务,在多个CUDA内核上同时运行,从而大幅减少处理计算任务的时间,让基因组测序分析的速度获得大幅提升。NVIDIA以GPU为核心构建出“全栈加速计算平台”,与人工智能相结合,在全球包括基因测序在内的多个领域掀起一场加速革命。
除了具有全球领先的硬件加速计算平台,NVIDIA还推出了基于GPU的基因测序分析加速软件—— NVIDIA Clara Parabricks。Clara Parabricks是一款GPU加速的计算基因组学工具包,可提供多种生物信息学工具和功能,如序列比对、预处理和质量指标、变异检测、UMI以及用于胚系、体细胞和RNA分析的端到端工作流程。与仅使用CPU的解决方案相比,Parabricks速度提升高达80倍,计算成本降低高达50%。借助Clara Parabricks和GPU,将深度学习的强大功能应用到基因组分析,可为测序中心、临床团队、基因组学研究人员以及新一代测序仪器开发者提供快速准确的分析,进而助力更快速、更准确的基因组学分析。
此外,为了更好地帮助科学家了解疾病,为患者找到治疗方法,NVIDIA还推出了BioNeMo框架,用于训练和部署超算规模的大型生物分子语言模型。该大型语言模型框架可支持化学、蛋白质、DNA和RNA数据格式,还可提供云API服务,用于未来支持越来越多的预训练AI模型。
基因测序领域降本增效创造新记录
在NVIDIA加速计算平台、人工智能与基因测序专业软件的赋能下,来自全球的学研机构、政府组织以及相关企业,正在不断突破基因测序与分析领域的速度与成本极限,创造出一项项新的记录:
凭借加速计算领域的全栈能力以及深耕行业所积累的专业知识,NVIDIA现在已经推出了智能计算平台NVIDIA Clara,全面布局医疗健康行业。该平台涵盖了用于医学影像的Clara Holoscan、基因组学的Clara Parabricks、患者监控的Clara Guardian以及药物研发的Clara Discovery,并可端到端部署至本地、嵌入式系统、边缘以及云端等任何地方,助力行业实现无缝创新,加快实现精准医疗的目标。
NVIDIA 通过持续完善的NVIDIA Clara平台,在为AI落地医疗场景提供了更大的动能。随着深度学习进入越来越多的领域之中,NVIDIA在为众多开发者提供算力支持的同时,也为其搭好了强有力的“基底”,在这之上,开发者能够将更多的精力放在知识的探索之上,而非受制于如何使用数据分析工具。
无论是尖端医学研究、大规模基因组分析还是日常应用检测,NVIDIA Million-X百万倍计算性能飞跃的愿景已经在基因测序的各个领域结出累累硕果,并将持续为人类消除疾病、促进健康做出贡献。
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。