如果你是数据中心运营商,可能会优先考虑数据中心服务器的可靠性、能源效率和最佳布局,但你也可能忽略了和服务器相关的另一个考虑因素:数据中心噪声排放。
事实上,虽然服务器产生的噪音似乎不是一个主要问题,但如果员工是在靠近服务器机架的地方工作,那么可能就会成为一大问题了。
让我们看看为什么服务器噪音可能成为数据中心的一个问题,以及数据中心运营商可以采取哪些措施来保持服务器安静。
是什么导致服务器噪音大?
服务器和服务器机房的噪音水平可能因多种因素而有很大差异:
由于存在这些变化因素,所有说服务器机房总是很吵的结论是错误的。然而总体来看,服务器机房往往是噪音很大的,根据Sensear的研究,数据中心服务器机房内的平均噪音水平为92 dB(A),比地铁稍微安静一些,略高于OSHA定义的工人长期接触的安全噪音水平。
服务器机房噪音是个问题吗?
现在,如果你的数据中心基本上是自动化的,并且很少有人在服务器附近工作,那么吵闹的服务器机房可能不是个问题,并且也没有理由投资于那些能够保持服务器安静的措施。
但很多服务器机房内有人是很常见。那些经常需要更新或者需要定期维护服务器的数据中心,往往有更多的技术人员在服务器机房内长时间工作。此外在某些情况下,服务器机房位于同时设有办公空间的设施内,使附近办公室的工作人员长时间暴露在服务器发出的噪音中。
在这种情况下,寻找减少服务器噪音的方法是很有意义的,这将改善员工的体验,同时还有助于确保遵守要求雇主保持合理噪音水平的工作场所法规。
降低数据中心噪音的策略
在大多数情况下,保持服务器安静并不是那么困难或成本高昂,以下就是数据中心运营商可以采取的可行措施以抑制服务器机房的噪音。
更换风扇
制造商在服务器上安装的风扇可能不是最安静的。使用更静音的风扇是减少服务器噪音的一个相对便宜且简单的方法。
调整风扇设置
服务器还可以默认配置为以高于必要的级别运行风扇。理想情况下,风扇应该配置为仅当服务器的热量输出增加时速度才会增加。这样,风扇就不会在不必要时产生噪音了。
一些服务器制造商提供了实用的程序来控制风扇设置,还有一些适用于大多数硬件的第三方风扇控制软件。
更新散热器
更换效率较低的散热器(用于传递CPU等服务器组件的多余热量)也可以降低噪音水平。散热器的效率越高,风扇或者其他冷却系统的工作量就越少。
用更安静的冷却系统替换风扇
在可行的情况下,用液体冷却系统取代风扇冷却是降低服务器噪音的一种高效的方法,但缺点是液体冷却成本更高,因此如果最优先考虑的是更静音的服务器,这种方法可能才具有经济意义。
隔离服务器机架的噪音
在服务器机架上添加绝缘材料和空气密封剂是另一种相对便宜且简单的降噪方法,还有助于防止泵入服务器机架的冷空气在冷却设备之前泄漏,从而提高冷却系统效率。
服务器机房墙壁隔音
如果的首要任务是减少从服务器机房泄漏到邻近空间的声音,而不是使服务器机房本身更安静的话,那么在服务器机房墙壁内部或表面安装隔音材料可以减少噪音的传递。
此外,在服务器机房墙壁上安装吸音材料可以减少服务器发出的噪音的回声效应,从而降低服务器机房内部的噪音水平。
结论:更静音的服务器意味着更好的数据中心
对于大多数数据中心运营商来说,减少服务器噪音排放可能不是第一要务。但是,一旦你优化了运营的其他方面例如能源消耗,投资降低服务器噪音(这在大多数情况下并不是特别困难或昂贵)就是提高员工生活质量的一个有效方法。而且,很多降低服务器噪音的措施还可以带来提高服务器效率的额外好处。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。