从初创公司到行业巨头均开始采用AI ,为医疗行业带来变革
AI有着改变医疗行业的潜力。而这种潜力在发展快速的中国尤为显著,因为中国是全球老龄化人口最多的国家之一。
中国的医疗行业致力于解决国内老龄化人口需求,在此过程中,技术发挥着核心作用,特别是对于医学成像和电子数据记录分析。
为此,中国政府在智能医疗领域展开了行动,鼓励数百家AI医疗初创公司和行业巨头借助AI为这一行业的未来发展奠定坚实基础。
要想感受中国面临的挑战有多大,不妨看看中国保险业巨头平安集团,其拥有近1.8亿个人用户。为深入洞察欺诈检测等问题或预测人群疾病,平安科技数据科学团队除了自身独特的机器学习算法,也用到了scikit-learn常用机器学习库,以及以下两种机器学习算法:主成分分析(PCA)和具有噪声应用的基于密度的空间聚类(DBSCAN)。
平安科技最近对RAPIDS进行了试用,这是一个GPU加速的新开源平台,适用于大规模的数据分析和机器学习,让数据科学家首次能够在GPU上运行数据科学管线,并大幅缩短数据集处理时间。
平安科技使用RAPIDS以及GPU加速的PCA和DBSCAN之后,工作流程执行速度加快了80倍,从几天缩短到几小时(包括数据加载和训练时间)。这有助于该公司主动做出预测并完善预防计划。
中国最大的基因公司华大基因(BGI)同样拥有海量数据-超过1PB的数据存放在该公司称为知识库的数据库中。华大基因(BGI)使用一种名叫XGBoost的机器学习算法,对用于癌症患者个性化免疫治疗的靶向多肽进行分类。
华大基因(BGI)团队在NVIDIA DGX-1 AI超级计算机上运行RAPIDS平台,将分析速度提高了17倍,并将多肽的分析范围扩大至数百万种。
在这方面领先的还有一家公司,它就是专注于数字化健康业务的碳云智能(iCarbonX)。该公司使用越来越常见的数字化生理、基因组、代谢组以及宏基因组数据来研究微生物组。碳云智能运用机器学习将微生物组特征和2型糖尿病关联起来,能提供个性化的消费者医疗服务(如饮食建议或治疗方案的制定),通过在TencentCloud P40服务器上部署RAPIDS,该公司的数据分析速度立即加快了6倍。
在互联网上图像和视频量激增的同时,医学成像也成为医疗行业中最早受益于AI的领域。不过,虽然目前有70%的医学成像研究是基于深度学习,但只有少数算法能成功应用到临床阶段。
个中原因是,医学成像AI往往对多项因素都很敏感,例如患者的人口统计特征、成像仪器的使用年限及其在获取图像时的具体设置等。此类变量可能会影响到AI的准确性。
因此,需要在本地开发AI应用程序,而这正是两家领先的中国医学成像公司采取的做法。
联影智能(UnitedImagingIntelligence)是中国顶尖的人工智能医学影像公司之一,它在NVIDIA DGX系统的基础上构建AI架构,以便开发用于全栈式医学影像的人工智能软件uAI。该公司目标是,从影像获取,疾病筛查,治疗方案等全系列医学影像工作流程中开发出优秀的人工智能软件和产品。
同样地,推想科技(Infervision)成立于2015年,仅4年时间已成长为中国人工智能医学影像第一梯队企业,并在国内外合作遍布亚洲、欧洲以及北美洲的众多医院。推想采用NVIDIA Clara平台,旨在提升产品性能,驱动新一代AI成像集群。该公司的InferRead系列解决方案将GPU部署进AI系统,并已应用于全球数百家顶级医院辅助诊断环境。
中国和其他国家/地区都在大力拥抱创新,藉此构建AI医疗行业,让所有国民都能受益其中。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。