日前,中国人民银行征信中心天津研发测试中心采用近百台浪潮高端双路服务器NF5280M4搭建其大数据研发平台,用来开发符合其业务需求的数据库、统计平台和评分模型等相关软件。
数据多并不是大数据,能够利用IT先进技术将碎片化的信息整合起来才能形成真正有用的大数据,征信的基本过程就是将分散的、看似用处不大的局部信息整合成可以完整描述消费者信用状况的全局信息。
未来征信行业的核心竞争力就在于其数据挖掘能力和模型开发能力,为此,中国人民银行征信中心决心搭建专门的大数据研发平台,开发出适合自己的信用评估模型、更多样的数据库类型和业务平台,从而在海量数据中挖掘出更多不易被发现的信用信息。大数据研发平台需要对新开发的平台和模型进行成百上千次的模拟、测试,进而不断细化和更新,这就需要支撑平台的服务器具备高可靠性,保障平台持续稳定运行。
中国人民银行征信中心专门负责企业和个人征信系统(即金融信用信息基础数据库)的建设、运行和维护。如今,其征信系统已成为世界规模最大、收录人数最多、收集信贷信息最全、覆盖范围和使用最广的信用信息基础数据库。
经过反复考察,中国人民银行征信中心最终选择了浪潮高端双路服务器NF5280M4。NF5280M4采用系统环境动态感知和动态功率调节技术,配合先进的风冷系统实现最佳工作环境,可以保障系统稳定运行;除了电源、风扇、硬盘冗余热插拔外,可实现关键部件故障自动检测和修正,故障部件自动隔离等高级RAS特性。
大数据时代,没有现成的免费午餐,数据和模型都需要提炼,拿来主义是行不通的。目前我们已经积累了海量数据,依托浪潮服务器搭建的大数据开发平台,稳定可靠,能够帮助我们开发出更多的数据分析平台和信用评估模型,更好地利用大数据做好信贷审批和风险管理。
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。