近日,英特尔发布新一代数据中心液冷解决方案——G-Flow浸没式液冷,在降低总体拥有成本(TCO)和电能利用效率(PUE)的同时,为追求卓越冷却性能的密集计算环境提供出色的散热能力、系统稳定性和易操作性,并对环境更为友好。目前,该解决方案已通过验证性测试(POC)并达到预期效果,这将加速浸没式液冷解决方案在数据中心的规模化应用,为数据中心的绿色、高效发展奠定坚实技术基石。
英特尔数据中心与人工智能集团副总裁兼中国区总经理陈葆立表示:“在AI快速推进与可持续发展需求日益迫切的当下,加速数据中心这一高载能行业的节能减排已成当务之急。基于对行业需求的深刻洞察,英特尔推出面向数据中心的全新G-Flow浸没式液冷解决方案,这一开创性技术在突破传统技术瓶颈的同时,为数据中心的节能减排开辟了新路径。未来,英特尔也将持续推动技术创新,并携手广大生态伙伴一道推动应用落地,为数据中心的高效、可持续发展提供强有力支持。”
此次英特尔发布的G-Flow浸没式液冷解决方案集创新设计与高能效于一体,涵盖了创新的浸没式液冷机柜及其配套的液冷服务器散热解决方案。该方案采用了新颖的浸没式系统设计,可以在无需额外能耗的情况下,显著增加通过CPU或GPU散热器的冷却液流量。这种优化的流体管理不仅实现了高效的强迫对流换热模式,而且显著提高了冷却介质的使用效率和系统散热效能。基于此,更为绿色环保、低成本的合成油也有望作为冷却介质来解决千瓦级散热问题,从而进一步降低数据中心的运营成本和环境影响。而且,该技术引入了创新的转接板设计,为客户面临的浸没式液冷机柜与服务器设计之间需解耦的难题,提供了行之有效的解决方案,且满足客户对于整体系统灵活性和兼容性的需求。该技术能够满足包括英特尔®至强® 6、英特尔® Gaudi AI加速器等在内的产品散热需求,可以在为客户提供更多的冷却方案的同时,带来更好的PUE和更低的TCO。
为携手产业链打造领先的数据中心液冷生态系统,加速其迈向可持续、低碳环保的未来,英特尔中国数据中心液冷创新加速计划应运而生。其中,英特尔联合浸没式液冷解决方案制造商绿色云图、立讯技术,服务器OEM、ODM以及合成油冷却液供应商等广泛生态伙伴,合作研发了基于G-Flow浸没式液冷解决方案的样机,并经过严苛测试,展现出高性能处理器所需的卓越散热性能。
在当前数据中心面临节能减排和可持续发展的转型之际,英特尔以持续的创新力,打造更符合现代数据中心需求的技术,并携手生态伙伴一道,推动数据中心向更高效、更节能、更可持续发展迈进。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。