傲腾™持久内存加持 优化万亿维特征在线预估系统
近日,英特尔与第四范式联合实验室以及新加坡国立大学的最新联合研究成果——基于英特尔® 傲腾™持久内存的特征工程内存数据库,被国际顶级数据库学术会议VLDB(Very Large Data Base)作为常规研究论文录取。VLDB与SIGMOD并称为数据库业界的两大最顶级学术会议,收录研究机构以及工业界在数据库领域最前沿、最顶级的研究成果。英特尔与第四范式此次合作录取的论文以解决在线预估系统的业务需求和痛点为目的,针对如何设计底层数据库组件来高效支撑万亿维稀疏特征在线预估系统,以及如何基于英特尔® 傲腾™持久内存进一步解决业务和系统设计的痛点等两方面进行创新性设计和全面优化。
如今,越来越多的企业意识到了AI在企业经营、决策中的重要作用,AI迎来了落地应用爆发期。作为AI落地的关键组件,超高维在线预估系统基于实时提取的超高维特征和预先训练的模型对业务数据进行实时评估,因而被广泛应用在欺诈交易识别、个性化推荐等在线实时推理业务场景中。
为了支撑高性能的实时特征存取需求,业界诞生了诸多实时内存数据库。然而,伴随着业务的持续扩张和数据量的指数级增长,实时内存数据库所存在的潜在弊端与风险使其难以高效、低成本的满足不断增长的业务硬实时需求:
为解决以上问题,第四范式自主研发了实时特征工程内存数据库FEDB(Feature Engineering Database)。作为面向AI硬实时场景的分布式特征数据库,FEDB所具备的高效计算、读写分离、高并发、高性能查询等特性,使得特征工程的效率和性能达到最大化。
在充分发挥FEDB价值的基础上,第四范式引入英特尔® 傲腾™持久内存技术,以及创新性的持久化数据结构,全面支撑AI硬实时、低成本、高计算性能等需求的实现。双方基于英特尔® 傲腾™持久内存,使用App Direct Mode,开发优化持久化数据结构,完全摒弃了FEDB原有的基于外存储设备的数据持久化架构,不仅充分利用了持久内存大容量、持久性的特性,而且将持久化操作带来的性能损耗降至最小。
该工作主要的创新性优化技术包括“持久化智能指针”以及利用原子操作“持久化比较并交换”(Atomic Persistent Compare-And-Swap")的解决方案。一方面,持久化智能指针巧妙地利用了64位操作系统中64位宽指针不被使用的低4位来标记目标地址的数据是否已持久化;另一方面,针对“比较并交换操作”(CAS),传统指令缺少持久化语义,因而无法在持久内存中直接作为带有持久化特性的原子操作来使用的难点,双方引入了新的“读前持久化”(flush-before-read)概念,利用持久化智能指针,保证“持久化比较并交换” (Persistent CAS)正确性的同时,最大化减少持久化带来的性能损耗。
此项工作的研究成果表明,基于英特尔® 傲腾™持久内存的FEDB可有效满足企业超高维稀疏特征在线预估场景的需求,在保证线上推理服务超高性能的同时,大幅降低了企业AI整体投入成本,提升了线上服务的质量,进一步扫清了企业AI规模化应用的障碍。
硬件成本比较(10TB业务数据)
数据恢复时间比较
持久内存(PA-FEDB)vs. 纯内存(D-FEDB)
长尾延迟TP-9999比较
持久内存(PA-FEDB)vs. 纯内存(D-FEDB)
未来,英特尔与第四范式联合实验室还将在软硬一体技术、面向AI的高性能计算等方面展开深入合作,结合英特尔领先的软硬件产品以及第四范式在AI领域的深厚积累、研发优势,推动AI技术的创新和落地,加速企业规模化AI应用进程,共同引领AI产业化发展。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。