健康是所有人的追求,随着技术进步基于“个人”基因、病史等大数据分析的“精准医疗”,正成为各国医学界探索的新方向。
近日,中科曙光在其官微发布了《先进计算“精准医疗”领域三大趋势》(以下简称“趋势”),“趋势”指出:1、精准医疗对于HPC(高性能计算机)的需求将随着海量增加的基因数据和复杂的组学分析流程而全面升级;2、云计算将成为“精准医疗”首选场景;3、不同研究机构将联合建立可控的共享基因数据库。
自2015年美国前总统奥巴马提出“精准医疗计划”以来,包括我国的十余国家已提出相关计划。2016年,中国科技部首次召开“国家精准医疗战略专家会议”,计划在2030年前投入600亿元推动“精准医疗”发展。而“精准医疗”已离不开先进计算的支持。
《先进计算“精准医疗”领域三大趋势》指出,随着“精准医疗”的基因检测、组学分析等技术的发展,对“先进计算”平台提出了更高的性能与兼容性要求。
如针对“精准医疗”第三代基因测序、组学分析等技术的大批量、小规模,一次提交成百上千应用数据处理需求特点,以及多种基因检测及特征分析软件并存、更新迭代快且无统一标准的局面,HPC将全面升级,具备PB(十亿亿字节)级存储架构下,解决数据复杂流程分析能力,并适应软件的多样与多变。
目前,“个人”基因测序成本已下降到几百美金,但个人的“基因谱”如何才能得到系统的“精准医疗”检测,业界还没有完善产业模式。但像谷歌、微软已开始通过云计算提供“基因云”等服务,因此未来更多“精准医疗”场景将首先通过“云计算”来实现。
此外,随着基因测序的普及,“精准医疗”产业链上的不同研究机构,将在可控条件下,交换共享基因数据,以提升各自在相关领域的研发能力和效率,建立可控的共享基因数据库。
对此“趋势”,中科曙光解决方案中心技术总监杨莉表示,曙光很早便为医疗机构提供“先进计算”解决方案。非典时期,曙光4000超级计算机无偿协助完成了SARS全基因组测序。
“‘精准医疗’发展依靠对海量医疗数据信息的存储、分析、利用,如何快速进行复杂流程的数据分析、将海量数据转化为可用信息,是精准医疗的难题,也是对先进计算平台的挑战。”杨莉表示,目前曙光已为“北京大学医学部”、“四川省人民医院”等超12所三甲级医院,以及“重庆市巴南医院”、“江苏泰州市人民医院”等超50家普通医院、县级医院、医疗机构等提供计算服务。
此外,曙光还与华大基因等“基因组学研发机构”合作,推动基因测序行业发展。而本次发布的“趋势”正是基于曙光为大量客户提供解决方案实践所得到的。
北京迈基诺基因科技股份有限公司,首席IT架构与运维工程师王晓斌表示。目前“基因测序”数据作为“精准医疗”行业的基础,是整个行业投入资源最多领域。而第二、三代“基因测序”软件,对计算平台的IO读写稳定与带宽,还有CPU性能要求较高。
王晓斌和同事在考察了多家供应商后,基于数据读写效率以及计算稳定性考虑,于2018年上半年采购了曙光可支持Infiniband网络的并行存储设备,以及四路服务器产品。
“从硬件到软件,曙光对Infiniband架构并行储存器都有完善的解决方案,对‘基因测序’软件的兼容性很好,整个存储系统运行一年多很稳定。”王晓斌说,今年他们还会继续加大在存储与计算设备领域的投入,以满足业务增长需求。
目前,中科曙光具备提供“精准医疗”全方位“先进计算”平台的成熟经验,对基因组、蛋白组、转录组和代谢组等组学技术的分析、存储、共享,以及精准医疗相关研究中大数据的分析、解读,具有从硬件、软件、维护的全面支持服务。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。