随着各公司大量投资 AI,理解支持 AI 发展的不同类型数据中心及其独特特征变得尤为重要。数据中心是提供实时分析、AI 解决方案和全球通信计算能力的关键数字基础设施。但并非所有数据中心都相同 - 从边缘到超大规模数据中心,每种类型都必须在平衡可持续性和成本效率的同时,规划必要的能源消耗。在购买新数据中心用地、更新现有数据中心基础设施以及应对州和地方政府法规时,可能会出现各种复杂情况。
尽管面临这些挑战,投资者仍准备抓住机遇。全球超大规模数据中心市场预计将从 2023 年的 3205.9 亿美元增长到 2029 年的 1.44 万亿美元。仅边缘数据中心市场预计到 2030 年前每年将以近 10% 的复合年增长率扩张。了解不同类型数据中心的差异将是把握这一增长价值的关键。
**边缘和超大规模数据中心是什么?**
边缘和超大规模数据中心主要通过两个要素区分:与终端用户的物理距离和数据中心的物理规模。边缘数据中心位置更靠近终端用户,规模通常较小。它们可以位于城市办公室或本地仓库、通信塔或区域中心。由于规模限制,边缘数据中心通常配备较少的本地处理能力,因此能耗较低。优势在于靠近终端用户可以快速提供技术解决方案,无需远距离传输数据;高带宽和低延迟是边缘数据中心增长的最重要驱动因素。
另一端是超大规模数据中心。这些中心通常建在农村园区,往往服务于单一用户 (如 Google 或 Microsoft),配备足以为城市供电的能源。这些较大且较远的中心旨在实现规模经济,从而满足全球计算需求的同时降低成本。超大规模数据中心不受物理限制,因为它们位于城市中心之外,可在单一位置容纳数十万处理器。这些大型中心的计算能力根据需求进行分配。
实际上,边缘和超大规模数据中心都有多种形态和规模 - 根据独特市场需求,它们可以靠近或远离终端用户,并可根据数据处理量进行扩展。重要的是,这些不同类型的数据中心作为集成网络协同工作,为渴求计算资源的用户提供计算和通信解决方案。
**数据中心设计者必须适应能源、经济和监管约束**
数据中心需要能源才能运行,但满足能源需求需要有时不太情愿的地方政府的支持。仅一个超大规模数据中心就可能使用超过 1GW 的功率。在某些地区,数据中心消耗超过 10% 的电网容量,在硅谷中心圣克拉拉,这一比例甚至跃升至 60%。随着数据中心安装更强大的新处理器,预计能源消耗只会增加。Nvidia 的新型图形微处理器每个可消耗高达 1KW 的功率,冷却它们需要相同的功率。举个例子,Elon Musk 最近在孟菲斯的超大规模数据中心安装了 10 万个 Nvidia 处理器来支持 X 的新 AI,并计划扩展到 30 万个处理器。考虑到液冷所需的能源,孟菲斯数据中心将需要估计 600KW 的功率,超过纽约市平均日用电量的 10%。(尽管最近人们更关注能源相关问题,但我们预计未来几年 AI 和数据中心的耗水问题将成为越来越突出的关注点。)
能源限制和监管偏好将迫使数据中心投资者有选择地决定在何处以及如何建设边缘和超大规模数据中心。一些监管机构希望激励数据中心的发展,而其他担心电网容量挑战和能源价格上涨的政府则希望限制这种增长。超大规模数据中心已经开始集中在德克萨斯州等能源丰富、监管宽松的地区,而作为成熟的数据中心枢纽的弗吉尼亚州正在考虑立法减缓数据中心发展。
为进一步解决能源问题,数据中心工程师正在使用创新设计。超大规模数据中心正在建设成像自给自足的小型城市,配备自己的发电、电池存储和水设施,以降低政府监管风险。例如,弗吉尼亚州提议的一个 362 英亩超大规模数据中心计划使用天然气驱动的氢燃料电池为设施供电。
严格的监管环境也可能有利于更加分散的边缘数据中心。边缘数据中心往往不太引人注目,监管也较少,因为它们可以从本地 AI 驱动设备到通信塔或较小的中心,通常具有分散的能源消耗。它们可以与住宅和商业建筑共同位置,利用这些场所已有的过剩能源。最终,数据中心投资者和设计者必须考虑能源限制和地方及州政府的偏好,以有效分配资源。
**理解数据中心类型为投资者创造机遇**
对边缘和超大规模数据中心的需求为投资者创造了机会,竞争对手正在争相提供 AI 解决方案所需的计算能力。建立整合边缘和超大规模数据中心的网络以实现规模、成本效率和速度将成为市场差异化因素。人才争夺战将使早期整合受益,因为这些复杂网络需要经验丰富的专家和工程师才能蓬勃发展。同样,随着边缘数据中心需要升级物理连接,超大规模数据中心需要来自新能源的稳定供应,数据中心的支持基础设施也将增长。
了解现有数据中心的类型以及为满足 AI、大数据和云计算的巨大需求而设计的数据中心至关重要,这有助于避免监管障碍和能源限制。公司需要减少数据中心成为能源瓶颈的可能性,而是提前考虑如何抓住数据市场的巨大增长潜力。
好文章,需要你的鼓励
这项研究介绍了Ankh3,一种创新的蛋白质语言模型,通过多任务预训练策略显著提升了模型性能。研究者采用两种互补任务:多掩码概率的掩码语言建模和蛋白质序列补全,使模型仅从蛋白质序列就能学到更丰富的表示。实验表明,Ankh3在二级结构预测、荧光预测等下游任务中表现优异,尤其在模型未曾训练过的任务上展现出强大泛化能力,为蛋白质设计和分析开辟了新路径。
法国波尔多大学研究团队开发了一个突破性框架,用于神经退行性痴呆症的差异化诊断。该框架将3D脑部MRI转换为文本报告,并利用强化学习优化的大语言模型进行详细诊断推理。不同于传统"黑箱"方法,这一系统能生成透明、有因果关系的解释,同时保持高诊断准确率。研究显示,通过群组相对策略优化(GRPO)训练的轻量级模型能展现复杂推理行为,包括假设检验和非线性思考,提供与临床决策流程一致的排序诊断结果。
这项研究提出了CLUE框架,首次能够生成自然语言解释来揭示AI事实核查系统不确定性的来源。与现有方法不同,CLUE能识别文本片段间的冲突与一致关系,并解释它们如何影响模型的预测不确定性。实验表明,CLUE生成的解释在三种语言模型和两个事实核查数据集上都更忠实于模型不确定性,用户评价其更有帮助、信息更丰富、冗余更少且逻辑更一致。CLUE不需要微调或架构更改,适用于任何白盒语言模型,为事实核查提供了实用支持。
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。