任何生活在现代数字经济中的人一整天都会依赖于数据中心。然而,很少有人完全了解数据中心的工作原理,即使是经验丰富的IT专业人士也不总是能够很好地了解数据中心发生的事情、数据中心与更广泛的IT行业之间的关系,甚至是数据中心所处的位置。
为了证明这一点,让我们看看关于数据中心的五个常见误解,并解释一下为什么是错误的。
误区一:只有大型科技公司才有数据中心
大多数主流媒体对数据中心的报道,都集中在超大型科技公司拥有的设施上。例如,非专业人士可能知道TikTok位于挪威的数据中心正在耗尽该地区的能源,以及有关Facebook和Apple数据中心如何给当地社区带来的影响。
基于这样的报道,可以很容易地假设认为,只有大型科技企业才运营数据中心。
但这是一个神话。实际上,几乎所有运营可扩展数字基础设施的企业——也就是说,几乎所有当今现有的大中型企业——都依赖于某种数据中心设施。银行、保险公司和许多其他不符合科技公司特征的企业,都拥有数据中心。
误区二:数据中心正在被云取代
即使在科技行业,随着越来越多的工作负载转移到公有云平台,很容易相信私有数据中心正在消失。在94%的企业都使用云的时代,还有人依赖数据中心吗?
答案是肯定的。撇开公有云本身就依赖于数据中心这一事实不说,整个数据中心行业仍在以稳定的速度增长着。公有云让数据中心变得越来越无关紧要的神话,是完全错误的。
误区三:数据中心位于偏远的地区
让普通市民描述数据中心,他们很可能会说数据中心是一种在沙漠中部或其他人烟稀少地区的建筑物。我们倾向于认为数据中心离大多数人很远。
的确,数据中心——尤其是大型数据中心——通常建在偏远地区。但人口稠密的地区也是数据中心的所在地。例如,纽约有数十个数据中心设施,但在这些数据中心附近生活和工作的人可能都还不知道。
误区四:数据中心正在破坏环境
人们越来越多地意识到,数据中心会消耗大量的电力。例如,越来越多的媒体文章强调来自数据中心的流媒体视频带来的碳影响。这种报道可能会让一些人认为,数据中心正在毁灭地球,因为数据中心消耗了大量的能源。
现实要复杂得多。诚然,数据中心需要大量的电力,但并非所有电力都是“脏”的,加在一起,数据中心仅占总能源使用量的1%左右。 相比之下,运输业约占世界能源消耗的28%。
还有一种观点认为,数据中心比托管数字基础设施等其他方法更为环保,因为数据中心运行效率更高。一般来说,一个旨在优化能源使用的数据中心内运行10000台服务器,可能会比运行分散在数百个本地服务器机房中的10000台服务器所产生的碳排放更少,后者更难以优化可持续性,并且能源消耗方面也无法从规模经济中获益。
误区五:数据中心对环境有益
另一方面,高估数据中心的可持续性也是一个谬论。
即使在数据中心所有者越来越渴望获得可再生能源的时代,大多数数据中心所依赖的大部分电力都是来自化石燃料。
此外,即使是广泛依赖清洁能源的数据中心,也可能只能断断续续地这样做,因为太阳能和风能产生的电量在一天不同时段或者一年不同季节是有很大差异的。因此,即使是“绿色”数据中心也不总是绿色的。
结论
从运营数据中心的公司类型,到数据中心所在的位置,再到数据中心行业的可持续性,及其他方面,数据中心神话比比皆是。所幸的是,只要你跳出这些笼统,思考现代数据中心的细节和细微差别,就很容易消除这些神话了。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。