天津臻云科技发展有限公司(简称“臻云科技”)是一家平台型公司和园区运营公司。在天津市武清区西北部京津高村科技创新园开发和运营“中国(天津)信息服务产业园”。该产业园以IDC和云计算为主导产业,是集信息枢纽中心、信息服务业先进科技展示、企业孵化、专业人才培训、商务服务为一体的多功能复合型科技园区。
中国(天津)信息服务产业园二期数据中心项目是臻云科技最大的数据中心建设项目,建筑面积为21889.60㎡,设计规划2918个机柜。客户希望此数据中心的建设可满足快速部署、高效运营、安全可靠等需求。而根据市场定位以及租户需求,该数据中心需按照Tier3+等级建设,且在满足建设等级前提下,还需平衡投资成本和运营成本,PUE值要处于领先水平。
华为针对臻云科技的要求,提供了专业的数据中心机房咨询、设计、实施、测试、运维等端到端的交付;并基于数字化、网络化、智能化技术,分别从可靠、高效、简单三个层面提出了模块化数据中心解决方案,使得臻云科技数据中心设计标准遵循高可靠、高安全、高品质、绿色的建设理念。
在要求快速部署,节能增效的前提下,华为采用微模块数据中心解决方案,工厂预安装、预调试,节省30%以上的部署时间;同时,模块化的构架可以实现后期IT设备容量和密度的灵活扩容,轻松应对业务挑战。由此,华为在二个月内完成36个微模块,四个月内完成92个微模块,共2918个机柜的快速部署,实现了业务的快速上线,并且后期还可灵活扩容。
在高可靠性方面,该数据中心按照Tier3+机房标准建设,配电采用“2N”型配置,制冷为“N+1”型配置,其他机房关键负载为“2N”型配置,满足国际T3+标准。而针对臻云科技对供电系统的安全可靠性要求,华为提供多达48台大功率模块化UPS作为IT设备和重要辅助设备的高质量后备电源,华为模块化UPS5000-E采用了目前最先进的拓扑结构,及全模块化设计,可以实现99.999%高可用性;同时,模块化设计支持各个模块在线热插拔,使得设备维护时间锐减,大大降低了业务中断的风险。
在绿色节能方面,臻云科技应用了行级空调、密闭通道技术及高效模块化UPS,使整个数据中心的PUE低于1.5。一方面,行级空调与机柜并排安装,近端制冷,有效地解决了机房局部热点的问题,并且制冷更加精确,减少了能耗;另一方面,让冷热空气隔离,有效提高了空调的制冷效率,从而降低PUE了,并大大降低了运营成本。配电系统的低载高效,则是华为模块化UPS5000-E获得臻云科技青睐的重要原因,20%的负载效率高达95%,40%的负载效率达到96%。对于兆瓦级数据中心,行级空调、密闭通道技术及高效模块化UPS与业界传统机房及ups相比,华为模块化数据中心每年将为臻云科技带来几百万人民币的电费节省,真正厉行节能减排。
臻云科技数据中心工程项目是IDC领域一次大胆创新,面对超大规模快速交付、节能、安全可靠性等一系列问题,华为还提供了整体L1集成解决方案,为业主其解决后顾之忧;同时华为提供了高品质、智能化的部件,模块化数据中心建设思路在可靠性、灵活性、绿色环保等方面获得了全面的突破——以建设4个月的速度完成工程交付,部署时间比传统数据中心节省50%以上;而通过对供电系统,制冷系统的创新设计,能源效率提升了30%,获得了客户的一致认可。
华为模块化数据中心为臻云科技数据中心提供了一个高性能、智能化的绿色数据中心,为未来双方合作建立了更好的基础,更为最终客户提供了更好的数据中心产品和服务。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。