近年来,以5G、云计算、大数据、AI和物联网为代表的新一代信息技术蓬勃发展。而无论云计算、大数据还是AI,都离不开数据的产生、存储、计算、交换和使用,因此作为ICT基础设施的数据中心迎来了前所未有的大好机遇。
作为客户信赖的数字基础建设合作伙伴,朝亚通过在中国开发大规模、高性能的数据中心园区,以推动数字经济在中国市场的高效发展。
绿色数据中心为客户省钱
开放计算正成为当前乃至未来数据中心的创新主力,通过全球化协作的创新模式,解决数据中心基础设施可持续发展的重大问题,如能耗、高速网络通信、智能运维及循环利用等。
2021年7月27日,由OCP社区主办、浪潮承办的第三届OCP China Day 2021在北京举行。朝亚数据中心运营副总裁艾宏伟在会上接受记者采访时表示,数据中心是新基建的重要组成部分,而新基建不同于传统的基建,不会是粗放式的发展。特别是数据中心是以节能、经济、绿色为理念,国家对于PUE的严格要求便是证明。“朝亚致力于在中国建立‘碳中和’数据中心平台,积极响应节能增效的号召。”
今年OCP China Day 2021以“开放计算再十年:降碳·增效·践行”为主题,倡导节能减排,这契合了国家“双碳”指标的政策指引,也符合行业发展的需求。
艾宏伟说,对于数据中心运营商而言,运营成本和电力成本是最大的支出。客户关注成本价格,而低碳绿色其实是给客户省钱。
数据中心企业降低PUE满足了客户需求。但是这也对数据中心运营商提出了更要的要求,毕竟低PUE一定要精细化管理,如果还是粗放式运营,一定会达不到要求。
“低PUE引领行业方向,客户也会选择低PUE的数据中心。如果你能够在行业里面做到低PUE,一定会在这个市场上占据一定的优势地位。所以,压力和动力同时存在,也让我们在运营过程中努力做到最好。”艾宏伟说。
目前,朝亚与金风能源等伙伴合作加速可再生能源在数据中心的应用,朝亚自身也在园区照明等场景应用太阳能实现节能“绿电”,而且朝亚打造了第一个实现“碳中和”的数据中心。
除此以外,朝亚数据中心的空调制冷散热采用间接蒸发冷的模式,最大限度地使用自然冷源;借助热通道封闭、双盘管空调等技术降低PUE,并采用LED节能灯管进行照明,在无人模式下以低照度运行;运营中减少空调的使用,尽可能地提高房间的温度,达到节能的效果。
定制化满足客户多样化需求
随着整个社会对于数字化技术的需求持续增加,比如非接触式的服务,这对于数据中心产业提供了一个比较好的发展空间,但是市场竞争也会随之增加。
艾宏伟说,朝亚打造绿色节能的数据中心,并满足客户定制化需求,针对高低端客户提供差异化的解决方案。“朝亚的目标是定位在Hyperscale超大规模数据中心,但是我们会提供灵活的模块化定制方案。”
定制化能够给客户提供足够的灵活些,朝亚在建设数据中心的时候会在电力、网络、管道、空间等资源进行充分考虑,比如客户考虑水冷,我们就要考虑足够的管道;整机柜租赁需要足够的空间;不同位置的服务器的热点不同,需要综合考虑散热。这些问题,朝亚在数据中心建设中都进行了全盘考虑。
据悉,朝亚天津超大规模数据中心的第一期TJ1宣布投入使用。整个园区由9栋数据中心楼宇组成,总共可容纳25000个机柜,最高可支持到300MVA的电量。而且朝亚天津数据中心已通过Uptime T3国际设计和实施认证,成为中国首家获得OCP Ready数据中心。
2021年是OCP成立10周年,在过去的十年里,开放计算作为全新产业协作模式,推动了5G、AI、边缘等创新技术的快速落地,为数据中心的绿色发展和高效价值挖掘做出巨大贡献。
谈及OCP Ready认证,艾宏伟表示,朝亚天津园区是中国首个拥有OCP Ready设施认证的数据中心,用户越来越接受OCP的理念,这对企业乃至整个行业都是好事。
除了天津园区,朝亚也在计划在建设上海园区,目前已经开始设计阶段。我们注意到朝亚的数据中心区域布局是集中于北上广深等一线城市,对此,艾宏伟说,靠近用户侧是朝亚布局数据中心的原则,虽然很多区域拥有土地或者电力的优势,但是但是离客户较远,毕竟客户对网络传输的时延有高要求。
目前朝亚的客户以金融行业、运营商为主,但是随着业务的发展,朝亚也在对接各种各样的需求,创新业务形式。“我们希望能够帮助初创型企业或者具有创新业务的互联网公司,满足他们对于数据中心的要求,更好地支撑业务发展。”艾宏伟最后说。
好文章,需要你的鼓励
这项研究介绍了一种名为FlowPathAgent的神经符号代理系统,用于解决流程图归因问题。研究团队提出了流程图精细归因这一新任务,构建了FlowExplainBench评估基准,并开发了结合视觉分割、符号图构建和基于代理的图形推理的方法。实验表明,该方法在归因准确性上比现有基线提高了10-14%,特别在处理复杂流程图时表现出色,为提升人工智能系统在处理结构化视觉-文本信息时的可靠性和可解释性提供了新途径。
这项研究首次从神经元层面揭示了大型语言模型(LLM)评估中的"数据污染"机制。研究团队发现当模型在训练中接触过测试数据时,会形成特定的"捷径神经元",使模型无需真正理解问题就能给出正确答案。他们提出了一种新方法,通过识别并抑制这些神经元(仅占模型总神经元的约1%),成功恢复了模型的真实能力表现。实验证明,该方法与权威可信基准测试结果高度一致(相关系数>0.95),并在不同基准和参数设置下都表现出色,为解决LLM评估可信度问题提供了低成本且有效的解决方案。
这份来自向量研究所、康奈尔大学和格罗宁根大学研究团队的综述分析了基于大语言模型的代理型多智能体系统中的信任、风险和安全管理框架(TRiSM)。研究系统地探讨了代理型AI从概念基础到安全挑战,提出了包含治理、可解释性、模型运营和隐私/安全四大支柱的TRiSM框架。文章还详细分析了威胁向量、风险分类,并通过真实案例研究展示了潜在脆弱性。
这项研究提出了一种名为ConfiG的创新方法,通过生成针对性的数据增强样本来解决知识蒸馏中的协变量偏移问题。研究团队利用教师模型和学生模型之间的预测差异,引导扩散模型生成那些能挑战学生模型的样本,从而减少模型对训练数据中欺骗性特征的依赖。实验表明,该方法在CelebA、SpuCo Birds和Spurious ImageNet数据集上显著提升了模型在缺失组别上的性能,为资源受限环境下的AI应用提供了实用解决方案。