美国当地时间11月15日,在盐湖城举行的全球超算大会SC16上,中国服务器领导厂商浪潮集团在大会上展示了服务器与数据中心液冷方案,在服务器部署密度提高一倍的同时,还可将数据中心的PUE控制在1.2以内,尤其适合超大规模数据中心以及超级计算机用户。
全球超算大会SC16浪潮展台
超大数据中心及超算系统撬动液冷市场
对于云服务商来说,数据中心向集中化、规模化发展,因此对TCO的控制拥有极高的要求。而E级超算的技术方案正在探讨中,高性能计算领域服务器的密度和性能都达到了新高,对于散热效率也有着更高的要求。浪潮集团高性能计算总经理刘军表示,这两类用户在部署密度、规模等方面的挑战都远高于一般数据中心。液冷散热无论是效率还是能效水平都远远优于空调风冷方式,具有毋庸置疑的优势。因此云服务商及高性能计算客户为液冷技术提供了足够的应用空间,同时在降低整体成本和提高能效方面得到很大收益,部署量不断增长。
浪潮整体液冷方案:从节点、机柜到数据中心
浪潮推出的液冷方案包含节点、机柜和数据中心三个部分,可针对不同业务阶段的客户实现差异化的方案推荐,并支持目前浪潮所有的服务器产品,如机架式服务器、刀片服务器等。
两级相变液冷方案示意
浪潮节点液冷方案有两种,第一种是两级相变液冷方案,利用微热管相变导热技术,将热量从服务器内导出,并与二级相变散热管路进行热量交换,可以提供极高的散热能力。第二种是直接水冷方案,服务器内部主要器件的热量通过水循环导出至机房集中换热器,管线压力小,采用快拆自封闭接头,方便节点运维。
机柜级层面的液冷方案为冷热交换的水排,节点“coolnode模块”导出的热水与数据中心外部输送来的冷水在此进行热量交换。在没有外部冷水输送的场景下,浪潮也提供了风扇墙方案,用风扇将节点导出的热水降温。
在数据中心层面,所有机柜的热水会回到数据中心统一的冷却塔中,冷却塔可以实现自然冷却。
刘军表示,采用浪潮整体液冷方案以后,数据中心设备密度至少可以提升一倍,能源费用至少降低70%,TCO优势十分明显。
目前,浪潮已经与某电信运营商在传统数据中心建立了“IDC节能实验平台”,部署了上千台服务器,包括台式、刀片、机架、塔式和整机柜等,采用了浪潮液冷机柜和新型供电方案,该平台在外部温度38℃,相对湿度95%的极端环境下,服务器CPU核心仍然保持在工作温度的同时,PUE值仍可控制在1.2以下。
收益:部署密度和能效的革命性提升
水的体积比热容是空气的4000倍左右,液冷技术的散热效率远非风冷技术可比。据浪潮测试数据,coolnode模块内即使水温达45℃也可以保证满负载的CPU保持工作在不超过65℃,浪潮液冷技术打破了散热对设备部署密度的限制。
采用直接循环液冷方案的浪潮i4008服务器
浪潮在SC16现场展示了采用直接循环液冷方案的i4008服务器,该产品是一款4U8节点的超高密度计算服务器,每节点配置2颗英特尔Xeon E5处理器,内存和硬盘全部满配。在整机如此高功耗的情况下,传统数据中心风冷散热是很难应对的,但是液冷方案下却可以实现。同样,浪潮液冷方案可全面支持高功耗处理器,极大提升了服务器部署密度和性能,满足了HPC对计算性能永无止境的需求。
好文章,需要你的鼓励
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
麻省理工学院研究团队发现大语言模型"幻觉"现象的新根源:注意力机制存在固有缺陷。研究通过理论分析和实验证明,即使在理想条件下,注意力机制在处理多步推理任务时也会出现系统性错误。这一发现挑战了仅通过扩大模型规模就能解决所有问题的观点,为未来AI架构发展指明新方向,提醒用户在复杂推理任务中谨慎使用AI工具。
Meta为Facebook和Instagram推出全新AI翻译工具,可实时将用户生成内容转换为其他语言。该功能在2024年Meta Connect大会上宣布,旨在打破语言壁垒,让视频和短视频内容触达更广泛的国际受众。目前支持英语和西班牙语互译,后续将增加更多语言。创作者还可使用AI唇形同步功能,创造无缝的口型匹配效果,并可通过创作者控制面板随时关闭该功能。
中科院自动化所等机构联合发布MM-RLHF研究,构建了史上最大的多模态AI对齐数据集,包含12万个精细人工标注样本。研究提出批评式奖励模型和动态奖励缩放算法,显著提升多模态AI的安全性和对话能力,为构建真正符合人类价值观的AI系统提供了突破性解决方案。