至顶网服务器频道 06月06日 新闻消息: 日前,施耐德电气数据中心设计研讨会在厦门举办。来自全国各类设计研究院所数十位数据中心设计专家共聚施耐德电气厦门工厂,对数据中心的未来发展趋势和数据中心用户的新需求进行了深入探讨与沟通。
走过野蛮生长阶段的数据中心行业,正在不断走向规模化和标准化
"这些年来数据中心行业已经走过了野蛮生长阶段,正走向正规化和规范化。在这个过程中,大量出现的大型和超大型数据中心的出现大大推动了这一需求。不只是如此,它们还在新技术的应用和创新上起着重要的引领作用,值得重视和研究。"
中国建筑设计研究院有限公司数据中心设计所所长郭利群
数据中心用户对数据中心产品和服务提出新要求
"随着中国数据中心产业的快速发展,特别是云计算的普及,用户对数据中心的出现了很多新的更高需求。比如,要求数据中心具有更高的安全性、可靠性和经济性。作为数据中心设计单位,我们愿意和众多合作伙伴一起,为客户提供从数据中心设计开始到建造、运维、评估在内的全生命周期服务。"
新华三集团数据中心部电气主任工程师金旭
施耐德电气的行业前瞻与技术领导力
本次研讨会上,来自施耐德电气的专家向与会嘉宾分享了施耐德电气在数据中心的洞察和供配电领域的整体解决方案。并借由其灵活、高效、可扩展的Galaxy VX UPS向设计院专家全面阐释了施耐德电气在数据中心领域的前瞻性理念与创新之道。
尽管UPS是传统设备,但其技术始终在不断创新,当前涌现出之前没想到的很多UPS新应用、新价值。施耐德电气数据中心首席技术顾问石葆春在介绍大功率UPS系统的创新和演进历程时表示: "大型和超大型数据中心带来了更多对大功率UPS的市场需求,它们要求更高的可用性、更低的建设成本以及更低的TCO,还要方便运维而且具有灵活性。同时,它们对品牌和技术先进性也都有更高要求。因此,设计人员需要重新思考数据中心的物理架构、电气架构和功能,以及如何降低整体运行成本、扩容、维护和续保成本等。"
施耐德电气数据中心首席技术顾问石葆春
施耐德电气工程师杜皓明对数据中心UPS电池系统的保护进行了详细介绍。他表示,UPS电池也是UPS的重要组成部分,包括UPS线缆长度、线缆粗细、开关的设置位置以及接地位置等看似微不足道,但每一个处理不好都会威胁UPS电池的安全,最终影响UPS的使用。
施耐德电气工程师杜皓明
最后,施耐德电气工程师任涛以Galaxy VX为例介绍了施耐德电气在数据中心领域的创新探索。任涛说:"作为施耐德电气针对大型和超大型数据中心的新一代UPS产品,Galaxy VX集众多创新技术于一身,如四电平、E变换、智能电源测试以及对电源峰谷的调节等在业界都是率先使用。这些新技术的应用让Galaxy VX给用户带来了全新的价值。"
施耐德电气工程师任涛
大型UPS的极致创新--Galaxy VX
备受与会专家关注的Galaxy VX是施耐德电气推出的一款为大型及超大型数据中心提供高可靠、高能效、灵活的电源保护解决方案,适用于Colo托管型数据中心、工业、半导体、金融及工业制造以及医疗行业的大型及超大型数据中心用户。Galaxy VX具有创新的四电平逆变专利技术、独特E变化模式、冗余模块化设计以及兼容锂电池在内的多种储能选择,在满足供电需求的同时满足未来增长的需求,并且降低运行费用,轻松应对业务挑战。
随后,数据中心设计专家一行还参观了施耐德电气厦门工厂车间,对施耐德电气在产品生产、质量控制、本地化交付等细节流程进行了现场了解。
在产品评测环节,专家代表们跟随施耐德电气工程师就Galaxy VX的产品技术、创新突破、应用价值与工程师进行了深入交流,以近距离体验Galaxy VX的独特魅力。
在回顾施耐德电气以先进的理念引领UPS的发展历程时,施耐德电气IT业务部高级产品经理张学文表示,秉承着数十年的品牌传承和创新积淀的Galaxy VX,正以前所未有的创新技术为数据中心客户带来更高的价值回报。不仅如此,施耐德电气还期望与数据中心设计院等众多合作伙伴一起,把施耐德电气更多先进的理念推广给更多国内用户,以共同推动数据中心产业向前发展!
施耐德电气IT业务部高级产品经理张学文
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。