至顶网服务器频道 10月17日 新闻消息: 从城市规划建设到论文著作,从社会发展史料搜索到老百姓日常问题查询,档案馆早已不是单纯收藏档案的场所,而是社会各方面获取知识信息的宝库。从过去的手持证件,遵守开闭馆时间,预约节假日查询到现在只需动动手指就能完成,这正是北京市档案馆不断加大信息化建设投入的数字化成果。
北京市档案馆
《北京市"十二五"时期档案事业发展规划》中明确提出"2016年底,市和区县档案馆实现机读文件级目录100%覆盖馆藏档案。市档案馆馆藏纸质档案数字化率达100%,区县档案馆馆藏纸质档案数字化率达到50% 以上。北京市档案馆在2008年年底,就已经有近80万条记录以及180万页档案原文可以在网上检索、阅览,已数字化纸制档案88余万卷,共计2700余万页,约占馆藏纸制档案的47.43%,所有声像档案100%数字化。在网上推出现行文件全文阅览和网上展览服务,月点击访问量达36000余人次。
用PK做选择,档案馆看重稳定高性能
随着网络查询内容,查询频次日益增多,原有信息化基础平台老旧和设备报废,北京市档案馆决定重新建设新一代档案管理系统,在经过多次的调研和比拼测试后,采用浪潮K1关键应用主机和K-DB数据库。
档案管理系统
档案管理系统是档案馆的核心应用,北京市档案馆信息处副研究员田雷也表示,出于严谨的考虑邀请了应用开发商东软集团,来进行一场一对一对比测试。经过严格的功能测试以及性能测试,浪潮K-DB数据库与Oracle性能相当,完全能够承担北京市档案馆核心应用,满足档案馆未来5-10年的信息化需求。
在此次测试中,东软的开发人员进行了完善的功能及性能测试,测试系统为档案馆系统,测试硬件平台为K1 910。测试的场景包括档案馆系统登录、档案馆案卷维护查询、档案馆案卷增发、档案馆案卷检索、档案馆案卷删除、档案馆电子文件预览。通过测试,以上应用均能够平稳正常运行。
性能测试方面,在多用户并发应用系统中,构造多用户并发访问的数据量,使用loadrunner分别模拟50、100、500三个数量级的用户并发测试。同时在K1上,也部署了Oracle数据库。将应用系统同时连接Oracle和 K-DB数据库,进行压力测试。与Oracle数据库测试结果进行参考,K-DB在性能层面基本与Oracle处于同等水平,能够提供高性能服务。
电子文件预览场景500用户K-DB每秒钟事务数统计
电子文件预览场景500用户Oracle每秒钟事务数统计
应用零修改,系统无障碍迁移
不仅仅测试数据令人振奋,北京市档案馆发现,在数据库迁移过程中,K-DB的迁移工具非常简单方便。Oracle的命令和参数在K-DB中都可使用。一键迁移工具,界面简单,对Oracle的兼容性达到99%,不管是数据结构,SQL语句,甚至存储过程都可以完美兼容。田雷副研究员也表示,Oracle迁移到K-DB几乎实现了应用零修改,大大节省了迁移时间,通过减少迁移成本,带来了经济效益。
浪潮助力档案馆数字化进程,专业事专业人做
最新上线的档案管理系统,既满足传统纸质档案管理和电子档案"双轨制"管理模式,又兼顾传统立卷方式和一文一件立卷方式相结合的要求,对档案业务环节全生命周期进行实时管理。实现数字档案馆的核心功能并建设档案门户,满足档案"收集、管理、保存、利用"的主线业务,为日常档案管理工作的质效提升提供数字档案一体化平台支撑。
北京市档案馆的负责人表示,浪潮关键应用主机K1结合企业级数据库K-DB,大大减少了他们在信息化方面投入的资金和精力,提高了资源利用和管理效率,为档案馆行业的发展带来了很好的正向增值效应。通过本次项目北京市档案馆很好的实现了建设实体档案与电子档案共存的数字档案馆系统,并建立实体档案与电子档案的双向关联关系。
好文章,需要你的鼓励
"当我看到梵高的每一笔中都有他的痛苦时,才明白我们看的不是作品,而是作者的人生。AI正以惊人的速度接近人类水平通用智能,让Google从'伦敦那帮疯子在搞AGI'转变为全公司共识。DeepMind让AI'合理地幻觉'来创造突破,就像Astra技术让用户第一次惊呼'AI能做到比想象更多'——这不仅是技术革命,更是重新定义创造力的开始。"
英伟达2025Q1营收440亿美元创纪录,数据中心业务暴涨73%至390亿美元。黄仁勋直言:"中国是全球最大AI市场,出口管制只会让美国失去平台领导权。Blackwell架构推动推理性能提升30倍,微软已部署数万块GPU,AI工厂正成为各国数字基础设施核心。"
来自耶路撒冷希伯来大学的研究团队开发了WHISTRESS,一种创新的无需对齐的句子重音检测方法,能够识别说话者在语音中强调的关键词语。研究者基于Whisper模型增加了重音检测组件,并创建了TINYSTRESS-15K合成数据集用于训练。实验表明,WHISTRESS在多个基准测试中表现优异,甚至展示了强大的零样本泛化能力。这项技术使语音识别系统不仅能理解"说了什么",还能捕捉"如何说"的细微差别,为人机交互带来更自然的体验。
这项研究提出了"力量提示"方法,使视频生成模型能够响应物理力控制信号。研究团队来自布朗大学和谷歌DeepMind,他们通过设计两种力提示——局部点力和全局风力,让模型生成符合物理规律的视频。惊人的是,尽管仅使用约15,000个合成训练样本,模型展现出卓越的泛化能力,能够处理不同材质、几何形状和环境下的力学交互。研究还发现模型具有初步的质量理解能力,相同力量对不同质量物体产生不同影响。这一突破为交互式视频生成和直观世界模型提供了新方向。