提起医院,总是绕不开“南湘雅、北协和、东齐鲁、西华西、中同济”最著名的五所,其中提到东齐鲁就是始建于1890年,经历三个世纪风雨洗礼的山东大学齐鲁医院(简称齐鲁医院)。
近些年,齐鲁医院一直追求临床技术创新,联合浪潮等高新技术企业建立了一套面向全院的临床信息一体化应用集成平台,将医院HIS、LIS、PACS等核心业务数据产生的数据进行集中存储调用,减少各业务数据之间调用转换时间,在加速科研转化的同时,也提升医护工作者工作效率及临床诊疗质量,树立了医教研新标杆。
百年老院的新需求
通过百年的发展与积淀,齐鲁医院已经打造形成了门类齐全的学科体系、实力雄厚的人才队伍和国内先进的医疗、教学、科研平台,每年面向病患开放床位5100余张,仅2021年度就完成门急诊量466.1万人次,出院病人26.5万人次,手术量13.2万台次。
医院现有各级科研平台47个,临床医技科室58个,住培专业基地32个,实现院内信息互联互通,整合面向全院的临床信息一体化应用平台,成为当前数字化创新的方向。
首先,持续创新升级互通共享的数据平台,随着诊疗新技术提升、新医疗设备的应用,基因、CT/MR等成像健康数据采集的精确性和维度也在不断提升,为了继续提高诊疗效率、优化患者的体验和效果,医院计划在已部署了HIS、PACS、EMR等10余套业务系统基础上,构建科研、医疗、教学等数据互通平台,提升资源共享,充分发挥数据价值,支撑临床诊疗、科研创新及教学需求。
其次,持续保障医院业务系统与数据可用,业务系统和数据的稳定可用一直是齐鲁医院关注的重中之重,每天面临上万的就诊需求,业务系统一旦出现延迟或中断,会严重影响患者的就诊,能够持续稳定支撑现在的业务负载和未来数据驱动创新的医疗平台,提升医护工作者工作效率及临床诊疗质量,是齐鲁医院数据化转型的基础要求。
浪潮存储为医院信息集成平台提供数据支撑
齐鲁医院对门急诊、科研教学等部门的需求进行调研后,计划通过浪潮服务器、全闪存储、光纤交换机等,建立一套面向全院的信息集成平台。
齐鲁医院集成平台除了整合原有的HIS、PACS应用,还新增了虚拟化平台,满足后续医疗、科研、教学新上线系统的快速部署。考虑到医院高峰时期需接收2万余名患者,医疗检测产生的不同类型的海量数据,其中HIS、PACS等不同医疗系统对于结构化数据及新生产以往的医疗影像读写性能和延迟有很高要求,所以结合整个平台对于数据存储要求,采用了架构先进的浪潮高端NVMe全闪HF6000G5,其数百万级IOPS性能满足了山东大学齐鲁医院前端医教研系统提供统一的数据存储空间,提高数据流动效率,基于平台获取数据信息向患者提供精准预约及信息推送服务、向专家提供患者资料和对称性信息服务、助力医院合理调配资源,实现全院信息的无缝衔接、数据同步共享,为共建国家区域医疗中心试点提供数据平台。
此外,为了保障医院各业务的持续在线、数据的随时可用,齐鲁医院部署了双活数据中心,采用的Active-Active架构的HF6000G5实现了关键部件全冗余,存储设备可靠性可到99.9999%,保障核心业务7*24小时不间断运行。
在满足医院现有医疗系统业务需求的基础上,齐鲁医院在充分考虑医疗系统未来业务增长量,部署浪潮全闪存储满足医院未来平台的架构、容量及性能的需求。浪潮HF6000G5能够支持横向在线扩展和容灾模式扩展的同时,还支持公有云、混合云和私有云等多种云的对接,还能加速数据在各个数据中心之间流动,帮助医院各个科室对于医疗数据进行调用读取,提升诊疗、科研效率。
高效创新的信息集成平台,是医院加快提升医教研核心竞争力,也是推动医院实现高质量发展的重要动力。齐鲁医院凝心聚力,精益管理,充分把握了临床医学一流学科建设的发展机遇,加强医教研融合发展,打造了中国高质量发展医院的样板,充分发挥驻鲁国家队医院作用,为实现山东省及周边区域优质医疗资源扩容和区域均衡布局、“健康中国”战略实施贡献力量。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。