10月27日,曙光数创于青岛举办“深蓝计划”新品发布会暨曙光数创(青岛)产业创新基地启动仪式。会上曙光数创发布新一代一体化风液混冷先进数据中心,并宣布全国规模最大的液冷数据中心全链条产业创新基地正式启动。

启动仪式现场
“曙光数创希望通过全场景可用、全行业适配、全链条服务的新模式,针对用户在液冷数据中心建设过程中遇到难题,提供切实有效的方案。”曙光数创总裁何继盛说。
据赛迪顾问《2023中国液冷应用市场研究报告》显示,曙光数创以近三年平均58.8%的市场份额,位列中国液冷数据中心基础设施市场规模第一。
创新实验室+先进产线,实现全链产研
伴随AI等新技术发展,海量算力需求对数据中心冷却技术提出严峻挑战。液冷技术因其散热效率高、节能等优势,正成为数据中心建设首择。
然而,液冷数据中心的研发与生产也面临三大痛点:一是缺乏尖端实验和研发环境,液冷技术进步需有庞大、先进研发环境支撑,以便更好地测试和改进液冷设备;二是产品化能力不足,在实际生产中,数据中心液冷散热设施产品仍面临难以量产、产品质量难保障等问题;三是定制化能力不足,不同行业、用户因其液冷数据中心部署需求不同,对液冷设施也有特定需用,需具备高灵活性定制化产品和服务。而解决上述难题,行业亟需全链液冷创新能力的提升。
在此背景下,曙光数创整合自身技术和产业优势,建设了国内规模最大的液冷数据中心全链条产业创新基地,基地拥有七大研发创新实验室和四条先进生产线。

图说:曙光数创(青岛)产业创新基地
650kW综合焓差实验室,作为七大研发创新实验室之一,通过国家GMPI认证,具备高精度、高自动化、高速稳定等测试优势;“王者级”实验室——国内唯一的兆瓦级液冷基础设施实验室,热源侧电负载源均最大可达1.5兆瓦,冷源侧可实现最大1.6兆瓦冷量能力,并通过自研控制系统实现智能控制,保证快速且平稳地调节出测试所需工况。

精准检测气密性
依托四大产线: CDM产品线、液冷散热产品线、钣金喷涂产线、产品总装产线,基地可提供从服务器到基础设施、从机房外到机房内、从硬件到软件的全链条、一站式、系统级液冷数据中心解决方案,为液冷数据中心基础设施建设提供坚实保障。

生产中心-产品总装产线
化繁为简,打造一体化风液混冷数据中心
长期以来,用户在部署、运维传统液冷数据中心时,常面临着三大问题:一是系统复杂、成本高、运维难度大。二是非弹性部署,较难满足用户实时发展需求。三是全年实际PUE值不恒定。
面对以上难题,曙光数创推出了新一代一体化风液混冷先进数据中心,以“1+1=1”(风冷+液冷=风液混冷)的创新理念,将风冷系统与液冷系统高效集成,一体化解决数据中心散热需求。曙光数创副总裁张鹏介绍,一体集成的风液混冷数据中心,其风冷、液冷比例可动态调节,可将散热效率提升至最高。

一体化风液混冷数据中心发布现场
而为实现一体化风液混冷数据中心,曙光数创发布六大新产品。从机柜内到机柜外,新一代CDU系列产品家族升级,提供更高效的换热能力;1U侧壁导冷式内存液冷散热组件,实现内存和CPU、GPU可靠液冷散热,灵活度和性价比大幅提升。从室内到室外,液冷节能型精密空调,使风冷与液冷系统共用室外冷源,实现最大程度利用自然冷源;液冷节水型室外机,低成本极致节水。从硬件到软件,中压直转HVDC系统,能效更高、系统更灵活、散热效果更好;液冷一体化能效管理系统,智能调节运行状态,在保障数据中心稳定的同时,进一步提升散热效率。
曙光数创基于全链条研发、全链条生产、全链条服务,为用户带来极致节能、灵活省心、成本可控的先进数据中心部署与运维体验,有效满足政府、金融、科教、互联网、能源、等全行业客户的差异性需求。曙光数创深耕数据中心液冷基础设施技术,以持续创新力和雄厚研发实力,携手产业伙伴一同实现算力节能与高效目标。
好文章,需要你的鼓励
这项由索非亚大学INSAIT和苏黎世联邦理工学院共同完成的研究,揭示了大语言模型在数学定理证明中普遍存在的"迎合性"问题。研究团队构建了BrokenMath基准测试集,包含504道精心设计的错误数学命题,用于评估主流AI模型能否识别并纠正错误陈述。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
实验室和真实使用测试显示,iPhone Air电池续航能够满足一整天的典型使用需求。在CNET进行的三小时视频流媒体压力测试中,iPhone Air仅消耗15%电量,表现与iPhone 15相当。在45分钟高强度使用测试中表现稍逊,但在实际日常使用场景下,用户反馈iPhone Air能够稳定支撑全天使用,有线充电速度也比较理想。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。