当下,人工智能的到来让我们见证了医疗科技的进步,其将助力医学科研、临床诊断、仪器设备研发、健康管理、数据库标准化等各个领域。
在NVIDIA 2022年GTC大会上,NVIDIA发布Clara Holoscan MGX,这是一个可供医疗设备行业在边缘开发和部署实时AI应用的平台,专为满足必要的监管标准而设计。

NVIDIA医疗健康业务副总裁Kimberly Powell表示:“在医疗健康和生命科学领域部署实时AI对推动手术、诊断和药物研发的下一轮前沿创新至关重要。Clara Holoscan MGX凭借其AI、加速计算和高级可视化的独特组合,加速了AI产品化,并为医疗设备行业提供软件即服务业务模式。”
Clara Holoscan MGX能够扩展Clara Holoscan平台,提供一体化的医疗级参考架构以及长期软件支持,以加速医疗设备行业的创新。它通过处理高吞吐量数据流来提供实时洞见,将最新的传感器创新带到了边缘计算。从机器人手术到研究生物学的新方法,外科医生和科学家需要医疗设备逐步发展成为持续传感系统,进而更好地推动疾病的研究和治疗。
Clara Holoscan MGX将高性能NVIDIA Jetson AGX Orin工业级模块、NVIDIA RTX A6000 GPU和NVIDIA ConnectX-7智能网卡整合到一个可扩展的AI平台中,提供高达每秒254-619万亿次运算的AI性能。
对于高吞吐量设备,ConnectX-7能够提供高达200GbE的带宽以及用于GPU处理的GPUDirect RDMA 路径,有助于加快处理速度。它还集成了最新嵌入式安全模块,该模块包含负责监控关键操作、提供远程软件更新和系统恢复的控制器,以及可实现最先进嵌入式安全的硬件信任根。
医疗设备制造商可以直接嵌入Clara Holoscan MGX,或将其连接到现有的医疗设备安装平台,从而使开发者能够加速AI部署和监管审批。
Clara Holoscan SDK专为高性能流式数据应用程序而设计,用于构建新一代软件定义设备。它汇集了预训练模型和可扩展微服务框架,允许在设备和边缘数据中心管理和部署应用程序,开创了行业的软件即服务业务模式。
Clara Holoscan从医疗设备延伸至NVIDIA边缘服务器,再到数据中心或云端的 NVIDIA DGX系统。
作为Clara Holoscan MGX的一部分,NVIDIA提供基于长使用寿命NVIDIA组件的硬件参考设计,以及10年的长期软件支持,包括针对软件的IEC62304文档,以及来自嵌入式计算合作伙伴的IEC60601认证报告。
多家嵌入式计算制造商,包括ADLINK、Advantech、Dedicated Computing、Kontron、Leadtek、MBX Systems、Onyx Healthcare、Portwell、Prodrive Technologies、RYOYO Electro和Yuan High-Tech将率先基于Clara Holoscan MGX参考设计开发产品,以满足全球医疗设备行业的需求。
一些大型医疗设备制造商和数十家机器人手术和医学成像初创公司已基于Clara Holoscan平台进行开发。
结语
如今医疗行业积极拥抱数字化技术,而AI和边缘设备正好符合医疗机构的业务需求。Clara Holoscan MGX的推出显然会加速医疗行业的数字化与智慧化水平。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。