自从生命的“密码”— 基因组被科学家破解以来,人类追求速度更快、成本更低的基因测序技术的脚步一直都在继续。
在1月13日刚刚结束的摩根大通医疗健康大会上,NVIDIA发布了与初创公司 InstaDeep、慕尼黑工业大学(TUM)在基因组学大型语言模型方面的联合研究成果。研究团队使用NVIDIA超级计算机 Cambridge-1,在各种基因组数据集上,训练了参数规模从500M到2.5B不等的各种大型语言模型(LLM),经过基因组学训练的大型语言模型可将应用扩展到大量基因组学任务, 这些任务有助于了解DNA如何转录生成RNA和蛋白质,从而开启新的临床应用。
基因测序 梦想照进现实
作为人类医疗技术发展的重要一步,基因测序可通过提取人体血液或唾液,对人类的DNA、RNA、蛋白质及代谢物进行分析,从而锁定个人病变基因,以诊断、预测或预防遗传性疾病的发生。基因蕴含了人类诸多病症的秘密,使人类有机会尽早预防疾病,并多元化治疗疾病。
2001年,被誉为生命科学“登月计划”的“人类基因组计划”(HGP)历时13年,耗资近30亿美元,发布了首张人类基因组草图。此后二十年中,以数字生物学为基础的基因组测序技术取得巨大进步,将全基因组测序的成本逐步降低至不到1000美元。一时间,全球对基因测序与分析的需求量出现暴涨。
加速计算突破基因分析算力瓶颈
随着基因组测序和分析需求的激增,由此产生的数据也迎来爆发式增长。过去十年间,基因测序的数据量平均每七个月就会翻一倍, 2025年全球测序能力预计将达到Zb级别,其中,仅人类全基因组存储的数据量就将达到每年2-40Eb。
要实现精准医疗,就需要对大量基因数据做出精确的计算和分析,这意味着巨大的计算成本和时间。因此,必须有创新的技术,打破全基因组测序数据医疗应用的主要瓶颈,推动行业进一步向前发展。
基因组测序与分析属于标准的计算密集型任务,而GPU擅长并行计算,可以将复杂计算问题分解为很多小任务,在多个CUDA内核上同时运行,从而大幅减少处理计算任务的时间,让基因组测序分析的速度获得大幅提升。NVIDIA以GPU为核心构建出“全栈加速计算平台”,与人工智能相结合,在全球包括基因测序在内的多个领域掀起一场加速革命。
除了具有全球领先的硬件加速计算平台,NVIDIA还推出了基于GPU的基因测序分析加速软件—— NVIDIA Clara Parabricks。Clara Parabricks是一款GPU加速的计算基因组学工具包,可提供多种生物信息学工具和功能,如序列比对、预处理和质量指标、变异检测、UMI以及用于胚系、体细胞和RNA分析的端到端工作流程。与仅使用CPU的解决方案相比,Parabricks速度提升高达80倍,计算成本降低高达50%。借助Clara Parabricks和GPU,将深度学习的强大功能应用到基因组分析,可为测序中心、临床团队、基因组学研究人员以及新一代测序仪器开发者提供快速准确的分析,进而助力更快速、更准确的基因组学分析。
此外,为了更好地帮助科学家了解疾病,为患者找到治疗方法,NVIDIA还推出了BioNeMo框架,用于训练和部署超算规模的大型生物分子语言模型。该大型语言模型框架可支持化学、蛋白质、DNA和RNA数据格式,还可提供云API服务,用于未来支持越来越多的预训练AI模型。
基因测序领域降本增效创造新记录
在NVIDIA加速计算平台、人工智能与基因测序专业软件的赋能下,来自全球的学研机构、政府组织以及相关企业,正在不断突破基因测序与分析领域的速度与成本极限,创造出一项项新的记录:
凭借加速计算领域的全栈能力以及深耕行业所积累的专业知识,NVIDIA现在已经推出了智能计算平台NVIDIA Clara,全面布局医疗健康行业。该平台涵盖了用于医学影像的Clara Holoscan、基因组学的Clara Parabricks、患者监控的Clara Guardian以及药物研发的Clara Discovery,并可端到端部署至本地、嵌入式系统、边缘以及云端等任何地方,助力行业实现无缝创新,加快实现精准医疗的目标。
NVIDIA 通过持续完善的NVIDIA Clara平台,在为AI落地医疗场景提供了更大的动能。随着深度学习进入越来越多的领域之中,NVIDIA在为众多开发者提供算力支持的同时,也为其搭好了强有力的“基底”,在这之上,开发者能够将更多的精力放在知识的探索之上,而非受制于如何使用数据分析工具。
无论是尖端医学研究、大规模基因组分析还是日常应用检测,NVIDIA Million-X百万倍计算性能飞跃的愿景已经在基因测序的各个领域结出累累硕果,并将持续为人类消除疾病、促进健康做出贡献。
好文章,需要你的鼓励
宏碁Aspire 14 AI在Costco售价500美元,成为最便宜的Copilot Plus PC。该笔记本搭载英特尔Lunar Lake处理器,拥有现代化配置而非过时组件。配备16GB内存和1TB固态硬盘,电池续航近19小时。虽然设计和显示屏表现一般,但整体性能出色,AI处理能力达到40万亿次操作每秒,是预算有限用户的优质选择。
CORA是微软研究院与谷歌研究团队联合开发的突破性AI视觉模型,发表于2023年CVPR会议。它通过创新的"区域提示"和"锚点预匹配"技术,成功解决了计算机视觉领域的一大挑战——开放词汇目标检测。CORA能够识别训练数据中从未出现过的物体类别,就像人类能够举一反三一样。在LVIS数据集测试中,CORA的性能比现有最佳方法提高了4.6个百分点,尤其在稀有类别识别上表现突出。这一技术有望广泛应用于自动驾驶、零售、安防和辅助技术等多个领域。
博通公司第三季度业绩超预期,每股收益1.69美元,营收159.6亿美元,同比增长22%。公司获得来自新客户的100亿美元定制AI芯片订单,推动股价在盘后交易中上涨超3%。AI相关营收同比增长63%至52亿美元,预计第四季度将超过62亿美元。公司专注为超大规模云基础设施提供商设计定制芯片,已成为英伟达的主要竞争对手之一,年内股价上涨32%,市值超1.4万亿美元。
中国电信研究院联合重庆大学、北航发布T2R-bench基准,首次系统评估AI从工业表格生成专业报告的能力。研究涵盖457个真实工业表格,测试25个主流AI模型,发现最强模型得分仅62.71%,远低于人类专家96.52%。揭示AI在处理复杂结构表格、超大规模数据时存在数字计算错误、信息遗漏等关键缺陷,为AI数据分析技术改进指明方向。