AI有望以多种方式改变数据中心,例如改变数据中心就业市场以及改进数据中心监控和事件响应操作。
然而,AI可能对数据中心产生的最大影响是改变数据中心的工作方式。对于那些想要充分利用现代AI技术的企业来说,数据中心所容纳的基础设施及其管理方式必须有所改变。
AI将会引发数据中心怎样的发展还有待观察,但以下是一些值得期待的关键变化。
AI对数据中心的独特需求
要评估AI对数据中心的影响,你必须首先了解的是AI工作负载与数据中心中其他类型的工作负载(例如标准应用托管)之间有什么不同。
虽然AI工作负载有很多形式且要求各异,但大多数都满足以下的独特需求:
当然,其他类型的工作负载也可能有这些要求,例如,运行AI应用和服务并不是唯一可以从裸机服务器中受益的用例,但总的来说,AI软件要比其他类型的工作负载需要更多上述资源。
为了AI升级数据中心
为了优化AI工作负载的设施,许多数据中心运营商需要做出改变,以满足AI独特的需求。以下是数据中心在这方面的关键升级。
至少在过去十年中,虚拟机一直是托管工作负载的首选基础设施资源。但考虑到AI应用和服务对于裸机硬件的需求,有越来越多的数据中心运营商可能会发现扩展裸机产品变得十分重要。
在某些方面,这实际上是简化了数据中心的运营。如果你在裸机上运行工作负载,最终会得到一个不太复杂的托管堆栈,因为你没有混合使用虚拟机管理程序和虚拟机编排器。
另一方面,扩展用于托管工作负载的裸机基础设施可能需要数据中心对托管的服务器以及服务器所在的机架进行更新升级。传统上看,在数据中心设置服务器的最简单方法,就是配置非常强大的裸机机器,然后根据工作负载的需求将其分配到任意数量的虚拟机中。但如果你需要直接在裸机上运行工作负载,那么则可能需要更多的服务器来隔离工作负载——这意味着数据中心必须将高功率服务器更换为较小的服务器,并且可能要相应地更新服务器机架。
尽管在AI工作负载进行训练的时候,使用支持GPU的服务器是有利的,但AI应用不一定需要GPU来进行日常操作。因此,许多企业只需要临时访问支持GPU的基础设施即可。
为了满足这一需求,数据中心运营商应该考虑那些让企业能够共享基于GPU的基础设施的产品。少数企业可能希望拥有配备GPU的服务器,因为他们并不会永远都需要这种服务器。但如果数据中心运营商能够临时提供对GPU资源的访问(例如通过GPU即服务的模式),那么他们就能够更好地吸引那些有AI工作负载需求的企业。
大多数企业级数据中心已经提供了对高性能网络基础设施的访问,以及有助于尽快将数据移动到外部设施的互连。但为了充分利用AI,数据中心网络产品可能需要变得更加强大。
那些拥有AI工作负载的企业需要两个关键功能:首先,高带宽网络连接,可以非常快速地移动大量数据,这在分布式基础设施上训练AI模型的时候尤其重要。其次,网络能够提供个位数的延迟,如果你希望AI应用和服务真正做到实时执行,这一点至关重要。
由于AI工作负载的资源需求波动很大,因此可能需要在支持基础设施数量方面更加灵活的数据中心。AI还可能让人们更加需要能够让企业在其他数据中心内按需部署服务器、而不是自己设置这些服务器的服务,因为按需基础设施是解决资源需求波动的一个好方法。
为此,那些想要优化AI的数据中心运营商应该考虑使其设施更加灵活的产品。短期合同,和那些不仅仅包括了客户可以建立自己基础设施的机架空间服务,二者的结合可能对于那些需要部署AI工作负载的组织来说是有吸引力的。
结论
AI变革仍在上演,现在想要确切地知道AI将如何改变数据中心的运营方式或者其中部署的基础设施类型,还为时过早。但可以相对肯定地是,支持GPU的服务器和更灵活的解决方案等变化,可能在以AI为中心的世界中变得至关重要。想要分一杯羹的数据中心运营商应该确保更新他们的设施,以满足AI工作负载的独特要求。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。