傲腾™持久内存加持 优化万亿维特征在线预估系统
近日,英特尔与第四范式联合实验室以及新加坡国立大学的最新联合研究成果——基于英特尔® 傲腾™持久内存的特征工程内存数据库,被国际顶级数据库学术会议VLDB(Very Large Data Base)作为常规研究论文录取。VLDB与SIGMOD并称为数据库业界的两大最顶级学术会议,收录研究机构以及工业界在数据库领域最前沿、最顶级的研究成果。英特尔与第四范式此次合作录取的论文以解决在线预估系统的业务需求和痛点为目的,针对如何设计底层数据库组件来高效支撑万亿维稀疏特征在线预估系统,以及如何基于英特尔® 傲腾™持久内存进一步解决业务和系统设计的痛点等两方面进行创新性设计和全面优化。
如今,越来越多的企业意识到了AI在企业经营、决策中的重要作用,AI迎来了落地应用爆发期。作为AI落地的关键组件,超高维在线预估系统基于实时提取的超高维特征和预先训练的模型对业务数据进行实时评估,因而被广泛应用在欺诈交易识别、个性化推荐等在线实时推理业务场景中。
为了支撑高性能的实时特征存取需求,业界诞生了诸多实时内存数据库。然而,伴随着业务的持续扩张和数据量的指数级增长,实时内存数据库所存在的潜在弊端与风险使其难以高效、低成本的满足不断增长的业务硬实时需求:
为解决以上问题,第四范式自主研发了实时特征工程内存数据库FEDB(Feature Engineering Database)。作为面向AI硬实时场景的分布式特征数据库,FEDB所具备的高效计算、读写分离、高并发、高性能查询等特性,使得特征工程的效率和性能达到最大化。
在充分发挥FEDB价值的基础上,第四范式引入英特尔® 傲腾™持久内存技术,以及创新性的持久化数据结构,全面支撑AI硬实时、低成本、高计算性能等需求的实现。双方基于英特尔® 傲腾™持久内存,使用App Direct Mode,开发优化持久化数据结构,完全摒弃了FEDB原有的基于外存储设备的数据持久化架构,不仅充分利用了持久内存大容量、持久性的特性,而且将持久化操作带来的性能损耗降至最小。
该工作主要的创新性优化技术包括“持久化智能指针”以及利用原子操作“持久化比较并交换”(Atomic Persistent Compare-And-Swap")的解决方案。一方面,持久化智能指针巧妙地利用了64位操作系统中64位宽指针不被使用的低4位来标记目标地址的数据是否已持久化;另一方面,针对“比较并交换操作”(CAS),传统指令缺少持久化语义,因而无法在持久内存中直接作为带有持久化特性的原子操作来使用的难点,双方引入了新的“读前持久化”(flush-before-read)概念,利用持久化智能指针,保证“持久化比较并交换” (Persistent CAS)正确性的同时,最大化减少持久化带来的性能损耗。
此项工作的研究成果表明,基于英特尔® 傲腾™持久内存的FEDB可有效满足企业超高维稀疏特征在线预估场景的需求,在保证线上推理服务超高性能的同时,大幅降低了企业AI整体投入成本,提升了线上服务的质量,进一步扫清了企业AI规模化应用的障碍。
硬件成本比较(10TB业务数据)
数据恢复时间比较
持久内存(PA-FEDB)vs. 纯内存(D-FEDB)
长尾延迟TP-9999比较
持久内存(PA-FEDB)vs. 纯内存(D-FEDB)
未来,英特尔与第四范式联合实验室还将在软硬一体技术、面向AI的高性能计算等方面展开深入合作,结合英特尔领先的软硬件产品以及第四范式在AI领域的深厚积累、研发优势,推动AI技术的创新和落地,加速企业规模化AI应用进程,共同引领AI产业化发展。
好文章,需要你的鼓励
Google 推出最新的 Gemini 2.5 Pro (实验版) AI 模型,并以罕见的速度向免费用户开放。该模型支持模拟推理,提高了准确性,并在 LMSYS 聊天机器人竞技场排行榜上名列前茅。免费用户可在网页上试用,但有使用限制,无法上传文件,且有未明确的token和使用次数限制。
Gartner 预测,大语言模型 (LLM) 提供商市场即将进入"灭绝"阶段。在竞争激烈的环境下,巨额资本投入成为主要挑战。预计到 2025 年,全球生成式 AI 支出将达到 6440 亿美元,较 2024 年增长 76%。专家认为,LLM 市场将经历类似云计算市场的整合,最终可能只剩少数几家主导者。
苹果公司推出新一代 AI 智能服务 Apple Intelligence,包括优先通知等多项功能。该服务现已覆盖欧盟用户和 Vision Pro 设备,并支持多种语言。新功能随 iOS 18.4 等系统更新推出,涵盖通知管理、图像生成和视频创作等方面,进一步提升用户体验。
OpenAI计划今年晚些时候向开发者社区发布一个"开放权重"模型,这是该公司自2019年以来的首次尝试。新模型将具备推理能力,类似于现有的o3-mini模型。这一战略转变旨在应对来自竞争对手的压力,同时为开发者提供更多定制和使用灵活性。虽然不完全开源,但这种方式可能有助于OpenAI在保持技术领先的同时,满足市场对更开放AI发展的需求。