微软发布了一项突破性的冷却技术,可能从根本上改变AI芯片的散热方式,有望彻底革新数据中心的设计和效率。
这家科技巨头表示,已通过"微流控"技术实现了芯片级冷却——这是一种AI辅助技术,在硅芯片本身嵌入液体通道。微软称该技术可使GPU硅芯片的最高温度降低65%,据称比传统冷板冷却效果好三倍。
微软表示,这一冷却突破可以降低运营成本,并成为衡量数据中心能效的关键指标。
微软云运营和创新企业副总裁兼首席技术官Judy Priest在声明中说:"微流控技术将允许更高功率密度的设计,这将启用客户关心的更多功能,并在更小空间内提供更好性能。"
**通过仿生学实现冷却**
微流控系统在芯片背面直接蚀刻微小通道(见主图),让液体直接流动以在热源处移除热量。目前GPU冷却的行业标准使用冷板,但冷板与热源之间被数层材料分隔,限制了散热量。随着芯片速度更快、功能更强大,产生的热量也会增加。
微软云运营和创新高级技术项目经理Sashi Majety在博客文章中说:"如果你仍然严重依赖传统冷板技术,你就会陷入困境。"
在微流控原型设计期间,微软与瑞士初创公司Corintis合作,在仿生设计上使用AI优化。芯片上蚀刻的通道类似叶脉,公司称这能产生更高效的冷却路径。
Moor Insights & Strategy副总裁兼首席分析师Matthew Kimball在邮件采访中说:"微软在微流控方面的工作可以显著改变芯片冷却的交付方式,并具有很强的颠覆性。我很想看到英伟达、AMD、英特尔等公司的一些信号,表明这是一个更大的行业趋势。"
该公司计划仅在本季度就在基础设施上投资300亿美元以满足AI需求,包括开发用于数据中心工作负载的Cobalt和Maia芯片。微软希望在未来几代自研硅芯片中融入微流控冷却技术。
微软技术研究员兼Azure企业副总裁Ricardo Bianchini说:"如果微流控冷却能用更少电力为数据中心降温,这将减轻对附近社区能源网格的压力。"
瑞士IT咨询公司CTOL Digital Solutions首席执行官Max Zhang在LinkedIn帖子中称微流控技术"突破性"。他写道:"微软的方法不仅提升了芯片性能,还改善了效率——提供的潜在散热效果比传统系统好三倍。这一创新可能会设定行业标准,并释放更密集、更高性能的芯片设计……投资者应密切关注;消除热量的竞争将定义下一波科技巨头。"
**空心光纤的速度优势**
微软还表示将扩大其新网络电缆产品的可用性,该产品承诺提供快速的AI和云连接。空心光纤(HCF)与传统单模光纤(SMF)相比,数据传输速度快47%,延迟低33%。
微软与康宁和贺利氏合作,正在扩大HCF的制造规模,以在Azure全球网络中部署——为其全球互联网基础设施创建新标准。
微软云网络工程经理Jamie Guadett在声明中说:"这一里程碑标志着重新构想云物理层的新篇章。"
Q&A
Q1:微软的微流控冷却技术是如何工作的?
A:微流控技术在芯片背面直接蚀刻微小通道,让液体直接流动以在热源处移除热量。这些通道类似叶脉结构,采用仿生学设计,通过AI优化产生更高效的冷却路径,可使GPU芯片最高温度降低65%。
Q2:微流控技术比传统冷却方式有什么优势?
A:微流控技术比传统冷板冷却效果好三倍,因为传统冷板与热源之间被数层材料分隔,限制了散热量。微流控技术允许更高功率密度的设计,在更小空间内提供更好性能,同时降低运营成本和减轻能源网格压力。
Q3:空心光纤技术有什么特点?
A:微软的空心光纤(HCF)与传统单模光纤相比,数据传输速度快47%,延迟低33%。微软正与康宁和贺利氏合作扩大制造规模,计划在Azure全球网络中部署,为全球互联网基础设施创建新标准。
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。