2020年3月3日,北京——英特尔、联想以及华大基因今天宣布,三家公司正携手加快COVID-19新型冠状病毒的基因组特性分析。来自英特尔及联想的专业技术与生命科学专家将通力合作,为华大基因的研究人员提供全新的大数据分析技术和计算资源,进一步提升其基因测序工具的分析能力,更高效地研究新型冠状病毒的基因组特性。
英特尔和联想携手为华大基因提供的技术包括一个大型高性能计算集群,可用于处理从华大DNBSEQ-T7测序系统读取的高通量数据。华大基因的研究人员将能够通过全新的高性能计算和基因组分析技术,以及英特尔和联想的相关资源和专业知识,进一步加速他们对新型冠状病毒的基因组特性研究。该技术将支持科学家研究病毒的毒性、传播模式、病原体与宿主间的相互作用,进而助力流行病学及疫苗设计研究。这些工作对于未来创建更好的诊断方法和设计有效的疫苗或其他保护性措施(例如免疫疗法)是非常必要的。
通过这项合作,华大基因将得以继续优化其新型冠状病毒检测试剂盒并获取大量有价值的信息。这些信息将有助于确定将来开发有效疫苗或治疗方法的潜在靶标。通过英特尔和联想的共同努力,联想的超算技术支持并优化了“基因组优化和可扩展性工具”,(简称GOAST,首个获得英特尔®精选解决方案验证的基因组分析工具),可为全基因组测序和全外显子测序的计算提供高达40倍I的加速,助力华大基因优化计算过程,高效处理数据,更快地生成可靠的基因组分析成果,从而缩短科研和临床观察的时间。
“目前我们对这个新型冠状病毒还有很多不了解的地方。华大基因通过分析病毒基因组数据,加速对感染者的快速识别和基因组特性的研究,而这些工作需要投入巨大的计算资源,这恰恰是我们可以发挥作用的地方。”英特尔市场营销集团副总裁兼中国区总经理王锐表示,“因此,我们紧密携手,为正在防疫一线进行病毒研究的科学家提供更多的计算资源和专业支持,希望与狡猾的病毒赛跑,助力疫情防控,拯救更多生命。”
联想集团高级副总裁、企业科技集团总裁童夫尧表示:“新型冠状病毒肺炎的疫情牵动着全国人民的心。联想作为全球领先的HPC厂商,一直致力于为生命科学研究提供计算力支持。来自英特尔及联想的大数据分析和健康与生命科学方面的专家,将整合我们的资源及专业技术,帮助解决目前面临的严峻挑战,推动健康和生命科学的发展进程。”
在基因测序工作中,每毫升体液通常会包含数百万个不同的病毒体,而每个病毒体的基因组则包含大约30,000个DNA碱基或字母。华大基因正在对许多感染患者和疑似感染患者的微生物进行基因测序,因此这些研究工作将会生成TB级乃至PB级的海量数据。要想高效地快速处理这些重要数据,就需要采用更为先进的HPC基础架构、计算技术以及优化的基因组分析方法。
华大基因总部位于深圳,是全球领先的专注于生命科学和基因研究的公司之一。 华大基因首席信息官晋向前表示:“华大基因已对数百份临床样本进行了测序,以分析和区分感染的并发症。生物信息学领域的技术,例如基因组比对、基因组组装、基因组注释和病毒核酸片段的系统分析,是一个高密度的计算过程,因此足够的高性能计算对于提高分析效率至关重要。能够使用最新的高性能计算和基因组分析技术是提高分析效率的重要因素。该设备和技术将加快对新型冠状病毒感染者的快速识别和病毒基因组特性的研究,为新型冠状病毒的精准诊断、治疗和疫情防控提供强有力的支持。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。