在许多人看来,IT行业是一个严谨、缜密甚至有些死板的行业,但这并不代表IT圈就没有“脑洞大开”的创意,比如:把数据中心建在海底。
“脑洞大开”背后的功耗成本压力
2013年,微软启动了名为“纳提克”的海底数据中心研究计划。2015年,在加利福尼亚海岸约30英尺深的海底,通过将服务器部署在一个重达38000磅,长10英尺,宽7英尺的集装箱中,微软启动了长达105天的可行性验证,最终证实“非常成功”。
微软公司2015年8月进行水下数据中心实验
现实中,不光是海底,在南极和北极都已出现IDC的身影,例如美国国家科学基金会的南极数据中心和Facebook位于北极圈以南100公里的瑞典吕勒奥镇数据中心。从海底到极地,数据中心这么拼,到底为哪般?
其实这些看似“脑洞大开”的背后,是对数据中心高能耗导致运营成本激增的无奈。
数据中心能耗到底有多高?
目前的数据中心主要是以高密度,大型化为发展趋势。2016年,超过100个机架以上的数据中心的占比将超过60%。以3000个机架的数据中心为例,以每个机架平均功率如果按照3kW计算,其总负荷就将达到9000kW,全年的耗电量将达到78840000kWh,电费支出超过7800万元。加之配套设备,电费将接近1.5亿。
那么数据中心的电都被谁“吃”了?数据中心能耗主要来源于IT 设备、照明系统、空调系统、供配电系统等。其中IT设备的能耗约占总功耗的约45%,空调制冷系统占40%,供电系统10%,照明系统5%左右。可以看到IT设备和制冷系统是用电的大户,这也是为什么顶级互联网企业的数据中心会尝试进入极地,因为那里的温度足够低,可以通过外界的冷空气或者冷水进行散热,省去空调制冷的能耗,电力消耗将减少40%,对于拥有海量服务器的数据中心而言,这是何等大的成本节省。
“留守”数据中心的自我革命
虽然将数据中心向极地迁移是节省能耗的有效措施,但是对于绝大多数的企业数据中心而言,这是不可能的。首先,迁移数据中心需要巨大的财力支撑,新建数据中心厂房、建设配套设施、雇佣运维人员等成本可能已经远超数据中心本身的能耗成本。第二,新风系统或者海水冷却的设计和可靠性验证也不是一朝一夕可以完成。因此目前大部分数据中心仍然“留守”在城市的郊区或者稍靠北方的地域。
那么这些“留守”下来的数据中心就无法降低功耗成本了么?从数据中心能耗的占比来看,45%的用电量是由IT设备产生的,虽然作为核心单元,无法将IT设备的功耗将为0,但是尽最大可能将IT设备的能耗控制在可接受的范围内,也是降低数据中心能耗成本的重要手段,这是数据中心内部发起的“自我革命”。
先来看下中国x86服务器的类型占比,我们姑且将单路、双路的机架式和塔式服务器算作是计算存储均衡型或偏存储服务器,将刀片式和高密度服务器算作偏计算型服务器,那么根据IDC 2016Q3的数据显示,2016Q1-Q3中国市场计算存储均衡型或偏存储型服务器的出货量超过130万台,而偏计算型服务器仅为20万台。计算密集型服务器依靠高主频、高密度来实现价值,我们从中降低的能耗较少,而占据市场86%的偏存储型服务器则大有可为。
如何让90%的数据降低存储能耗
据HGST的研究表明,在数据中心里只有10%-15%的数据是被经常访问的,而其他全部是“冷数据”。对这些海量的“冷数据”,部分企业仍然采用2U机架式服务器进行存储,但效果往往是“大马拉小车”。一方面,2U最多支持12块3.5寸硬盘,均摊到每TB的成本较高;另一方面,“冷数据”的低访问率意味着其对CPU、内存、网络、PCIe扩展等性能要求不高。如果将其和温数据,甚至是热数据挤在一个“房间”,那么带来的后果只能是机房投入、功耗及运维成本的居高不下,难以做到资源的最优化配置。
因此,对互联网企业而言,尤其是随着大数据时代的来临,如何实现数据的分级存储,为占据90%数据总量的“冷数据”找到最合适的“家”,是困扰企业已久的难题。而那些具有市场敏感性的服务器厂商,也适时推出了化解“冷存储”困境的产品,比如浪潮SA5224L4。
SA5224L4——互联网“冷存储”专属利器
浪潮SA5224L4
密度提升60%,功耗降低42%
对于“冷数据”的存储而言,高容量、低功耗无疑是其两个关键诉求。在容量方面,SA5224L4可支持36块3.5寸硬盘,相比2U12盘机型,单节点磁盘密度提升了50%,单机柜磁盘密度提升60%,使得单位空间内磁盘部署密度得到提升,大幅降低了服务器的部署规模。同时,SA5224L4配备2个后置2.5寸硬盘做OS或缓存,释放了磁盘的存储空间,让存储性能发挥到极致。
在功耗方面,SA5224L4在兼顾“冷存储”性能需要的同时,整机功耗较传统“冷存储”方案大幅下降,每TB功耗降低幅度可达42%。
E3单路,性能够用而成本更优
作为国内服务器行业的领导厂商,浪潮推出的SA5224L4无疑是专为互联网企业打造的一把“冷存储”利器。首先,在计算性能与“冷存储”需求的平衡上,SA5224L4的设计者显得颇具用心。该产品采用单路设计,并且在CPU的最初选择上没有像其他厂商那样使用性能较优的Intel E5-2600V3系列,而是采用E3-1200V3系列CPU,搭配4条DDR3内存,在具备更低功耗和成本的同时,实现了计算性能与“冷存储”需求的完美匹配。此外,网络IO方面,在四个板载千兆网口设计的基础上,可通过外插满足万兆的扩展要求,保证了业务运行不会受网络带宽的影响。
前金山云CTO杨钢曾经指出:“作为存储服务提供商,我们的职责是把用户的数据存好,并且在用户想要使用的时候快速拿出来。但同时,我们也要尽可能地降低存储成本。”可以说,用作“冷存储”的服务器需要对性能、功耗、成本、安全等每一项指标都做到精打细算,最大实现各项指标的平衡,因此其开发难度并不低,这也是为什么业界大多数4U36盘位机型定位在温热数据存储的原因。而正是源于浪潮SA5224L4对“冷存储”的精准定位,使其成为奇虎、网易、金山、七牛等诸多互联网客户“冷存储”的理想选择。
好文章,需要你的鼓励
这项研究针对现代文档检索系统中的关键缺陷:独立处理文档片段导致丢失上下文信息。研究团队开发了ConTEB基准测试来评估模型利用文档级上下文的能力,并提出了InSeNT方法,结合后期分块和创新的对比学习策略。实验表明,上下文感知嵌入显著提升检索性能,尤其在处理非自包含文本片段时,同时保持计算效率,对分块策略更具鲁棒性,并且在语料库规模扩大时表现更佳。这一研究为更智能的文档检索系统铺平了道路。
这项由布朗大学和Cohere实验室研究者联合进行的研究全面分析了大型语言模型(LLM)安全研究中的语言不平等现象。通过系统回顾近300篇2020-2024年间的安全相关论文,研究发现LLM安全研究严重偏向英语,即使中文这样的高资源语言也仅获得英语十分之一的研究关注,且这一差距正在扩大。研究还揭示非英语语言很少作为独立研究对象,且英语安全研究常忽略语言覆盖文档化。为解决这一问题,研究者提出了三个未来方向:开发文化敏感的评估基准、创建多语言安全训练数据,以及深入理解跨语言安全泛化挑战。
这项研究提出了ChARM,一种创新的角色扮演AI奖励建模框架,通过行为自适应边界和自我进化策略大幅提升AI角色的真实性和一致性。研究团队创建了包含1,108个角色的RoleplayPref数据集,实验表明ChARM比传统模型提高了13%的偏好排名准确率,应用于DPO技术后在多项基准测试中达到了领先水平。这一突破将为娱乐、教育和心理健康支持等领域带来更加自然、个性化的AI互动体验。
这篇研究重新审视了循环神经网络中的双线性状态转换机制,挑战了传统观点。高通AI研究团队证明,隐藏单元不仅是被动记忆存储,更是网络计算的积极参与者。研究建立了一个从实数对角线到完全双线性的模型层级,对应不同复杂度的状态跟踪任务。实验表明,双线性RNN能有效学习各种状态跟踪任务,甚至只需极少量训练数据。研究还发现,纯乘法交互比加法交互更有利于状态跟踪,为循环网络设计提供了新视角。