11月9日,在“2022中国数据与存储峰会”上,中科曙光发布业界首款液冷存储——曙光 ParaStor 液冷存储系统,开创性地将液冷技术与存储技术深度结合,填补了存储领域液冷产品的空白。
曙光 ParaStor 液冷存储系统发布仪式
“在液冷逐步商业化的背景下,用户希望把液冷技术进一步扩展到存储系统上,市场对于液冷存储的需求日益迫切”,中科曙光存储事业部副总经理张新凤在峰会上介绍。
中科曙光存储事业部副总经理张新凤
曙光打造首款“软硬一体”液冷存储
曙光 ParaStor 液冷存储系统,继承了曙光20余年的技术优势,巧妙地将换热效率更高的冷板式液冷方案与存储技术结合,显著降低内存、HDD存储关键部件的工作温度,大幅降低散热功率。相比于风冷,液冷存储系统性能提升超过20%。
为了将“绿色”发挥到极致,曙光还对系统软件进行了深度优化,通过采用大比例纠删码、数据重删压缩、硬盘分区休眠、电源功耗精细化控制等技术,在保证容量和性能的基础上,充分提高存储资源利用率,最大限度降低存储系统功耗。
开创业内最全“存算一栈式”液冷方案
在应用层面,曙光 ParaStor 液冷存储系统灵活配置多种场景。针对高性能小规模应用场景,曙光ParaStor 液冷存储系统提供全闪存配置方案,而针对中大规模应用场景,则提供更高性价比的混闪配置方案,为客户释放更多的业务价值。
与曙光液冷服务器技术同源,为便于数据中心基础设施的统一规划、设计和共用,曙光 ParaStor 液冷存储系统可便捷、高效地与液冷服务器形成“存算一栈式”液冷方案,在提高运维效率的同时,助力数据中心部署更便捷。
冲击更低的PUE值
数据显示,存储系统的功耗约占数据中心IT设备系统总功耗的35%,仅次于服务器能耗,液冷存储是实现数据中心“深度绿色化”的关键一环,采用“存算一栈式”液冷方案,可将数据中心PUE值降至1.1以下。以EB级数据中心耗电量为例,采用液冷存储相比风冷存储,一年可节约450万度电量,减少1493吨CO2排放,支持2812个家庭的年度电量,相当于种植82957棵树。
“未来,曙光‘存算一栈式’液冷方案将助力数据中心实现更优PUE指标,为绿色数据中心建设带来新思路”张新凤展望道。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。