Alluxio Inc.(一家销售开源分布式文件系统和缓存商业版本的公司)今天宣布推出新功能,加快人工智能模型训练速度并增强与 Python 软件开发工具包的集成。
该公司表示,这些更新能够让组织更快地训练模型、更高效地处理大型数据集,并简化复杂的 AI 基础设施。
Alluxio 表示,这些增强功能旨在支持对重要训练数据的快速、优先访问,并与常用的 AI 框架集成。该公司已经转向解决可能需要数月时间的 AI 模型训练问题,承诺带来显著的性能提升。"我们将 DeepSeek 视为一个机会,"创始人兼首席执行官 Haoyuan Li 表示,他提到的这家中国初创公司本周因其低成本模型训练方法导致科技股下跌。"这为我们创造了更容易的销售机会。"
去年 7 月,该公司宣布其增强功能可以将昂贵的图形处理单元利用率提高到 97%。市场和产品营销副总裁 Bill Hodak 表示:"每个人都在快速行动以利用 AI,所以我们帮助他们更快创新,加速训练工作负载,更快地将模型推向市场,了解它们的使用情况,并将这些信息反馈到模型训练过程中。他们做这些事情越快,他们的模型就会越先进、越准确。"
快速缓存
Alluxio Enterprise AI 3.5 版本包含一个实验性的 CACHE_ONLY 写入模式,据称该模式显著提升了写入操作的性能。启用时,该模式将数据仅写入 Alluxio 缓存而不是底层文件系统,从而消除了存储系统相关的瓶颈。
Hodak 表示,该功能对检查点文件特别有用。检查点文件是模型在特定时间点的状态快照,可用于从保存点恢复,而不是从头重新开始。Hodak 说,这些文件可能很大,在加载过程中会导致训练过程出现长时间延迟。"如果之前需要一个小时,现在可能只需要 20 分钟。"
高级缓存清除允许管理员对缓存数据强制执行生存时间设置,该设置定义了缓存数据在自动过期和删除之前保持有效的时间。管理员现在可以为特定数据定义缓存优先级,覆盖 Alluxio 的默认"最近最少使用"算法,以保留原本会被清除的数据。
"目标是尽可能减少开销,"Hodak 说。"这提高了缓存命中率,具体取决于工作负载。"
另一个实验性功能是增强了 Alluxio 的 Python SDK 与流行 AI 框架(如 PyTorch、PyArrow 和 Ray)之间的集成。这些集成提供了统一的 Python 文件系统接口,使应用程序能够与本地和远程存储系统无缝交互。
更快的 S3 访问
此版本还对 Alluxio 访问 S3 对象存储的应用程序编程接口进行了多项增强。
HTTP 持久连接支持为多个请求维护单个 TCP 连接。这减少了为每个请求打开新连接的开销,并将 4KB S3 ReadObject 请求的延迟降低了约 40%。
Alluxio S3 API 与 Alluxio worker 之间的通信现在支持 TLS 加密和分段上传。后者将文件分成多个部分以实现更快的并行上传。
Hodak 表示,新的缓存服务提高了超大目录列表的性能,通过从缓存提供目录列表元数据,使结果的传递速度提高了五倍。
管理员现在可以设置速率限制,以控制单个 Alluxio Worker 从底层文件系统(Alluxio 用于存储缓存访问数据的底层存储系统)读取的最大带宽。
集群现在可以具有具有异构 CPU、内存、磁盘和网络配置的工作节点,从而增强了灵活性。
好文章,需要你的鼓励
这项来自麻省理工和滑铁卢大学的研究质疑了在AI文本排序中"思考过程"的必要性。研究者比较了三种文章重排模型:直接判断的StandardRR、先推理再判断的ReasonRR,以及禁用推理功能的ReasonRR-NoReason。实验结果表明,不仅推理过程没有提高排序质量,有时甚至会降低效果。主要原因是推理导致模型倾向于极端判断,难以表达"部分相关"这种微妙关系。即使应用"自洽性"等改进技术,简单直接的判断方式仍然更为高效有效。研究为信息检索系统设计提供了新视角:有时,少即是多。
TAGS是一种创新的医学问答框架,结合了泛医和专医两种视角,通过层次化检索和不确定性验证机制提升医学AI回答的准确性。该框架由穆罕默德·本·扎耶德人工智能大学等机构的研究团队开发,无需任何模型微调即可显著提升包括GPT-4o和DeepSeek-R1在内的大型语言模型在九个医学问答基准测试上的表现。TAGS通过模拟医疗专家协作、结构化知识检索和质量控制,解决了现有方法在复杂医学推理中的短板,为构建更可靠的医学AI系统提供了新思路。
这篇研究提出了时间抽象值学习(OTA)方法,解决离线目标条件强化学习中的长期规划问题。研究团队发现现有分层方法失败的关键在于高层策略无法生成合适子目标,原因是价值函数在长期规划中估计不准确。OTA通过"选项"概念实现时间抽象,有效缩短规划视野,使价值函数能提供更准确的优势信号。在复杂迷宫导航和视觉机器人操作任务中,OTA显著优于现有方法,证明了该方法在处理长期任务时的有效性。
这项研究探索了大语言模型内部可解释特征的形成过程,分析了它们在训练过程中(时间)、模型层级间(空间)和不同规模模型(尺度)的行为变化。研究团队使用稀疏自编码器技术,成功识别出特定语义概念在神经激活中出现的时间点和位置。研究结果显示,不同领域的知识概念在模型训练和规模扩展中存在明确的激活阈值,且在空间分析中发现了早期层特征会在后期层重新激活的现象,这挑战了对变换器模型表示动态的传统认知。