为了最大程度的保证业务应用的稳定高效,传统的IT解决方案是在服务器上做更多的冗余配置,搭建完整的容灾备份方案以期实现无单点故障。但在互联网企业,往往是采用分布式的架构,更多凭借庞大的服务器集群和软件定义,借助平台实现足够高的可靠性以及极易扩容的性能。因此,互联网企业往往更倾向于对服务器进行减法,通过对产品的定制化实现硬件产品与业务应用的完全吻合。
浪潮SA5112M4
以客户需求出发,精简配置适应业务
浪潮SA5112M4正是面向互联网行业用户推出的性价比极致优化的计算存储均衡类服务器,规格设计不求大而全,而是针对于互联网企业的主流业务应用,对配置进行减法 ,在满足客户需求情况下,精简设计,节省用户投入成本,提高性价比。
首先看下浪潮SA5112M4的主要配置:
计算存储最佳平衡,满足99%互联网应用需求
浪潮SA5112M4最高支持16条DDR4内存,虽然并不是业界最高密度,但是这一配置适合大部分互联网客户,能够99%互联网行业业务需求。目前浪潮是国内互联网行业最大的服务器供应商,在对庞大的用户群需求进行调研和分析后,我们发现99%左右的互联网行业业务应用对于内存的需求量小于256G。按照目前主流的单条内存16G来算,16条内存插槽完全能够满足绝大多数的客户需求。
16条内存,满足99%互联网业务需求
在内存部分进行精简后,更多的机箱空间则能够留给其他部件。因此SA5112M4有着更为灵活的存储,支持8块2.5寸硬盘或者4块3.5寸硬盘+2块热插拔SSD硬盘的配置,可以说是业界最强的存储资源配备。对于有大数据或者热数据处理的业务来说,通常需要配备SSD进行加速,但是同时还需要保证数据存储空间。SA5112M4支持4块3.5寸大容量硬盘的同是,还可以通过2块SSD盘做缓存或OS,有效提升硬盘的读写性能。对客户而言, 能够收获大容量与高性能的双重保障。
优化设计,节省15%以上整体能耗
目前来看,互联网客户的数据中心规模越来越大,单数据中心的服务器保有量甚至已经达到数十万台。我国的大多数数据中心的PUE值大于2.0,平均值在2.5以上。那么,服务器本身每节约1W的功率,数据中心就可以节约2W,这对于动辄十万台服务器保有量的大型数据中心可是一个可观的数字。
550W CRPS电源
在电源的选择上,浪潮为SA5112M4配备的是CRPS电源, 符合Intel指定的CPRS规范,这一规范不仅要求需要超过80Plus的白金级效率外,还增加功率传输的可靠性。CRPS的电压调节能力,可以提高系统效率,在各种负载条件下,可降低系统的电量损失,提升效率。经过实测,SA5112M4上搭配的CRPS白金电源,转化效率能够达到94%以上,而普通电源仅为90%以下。
另外,SA5112M4支持高压直流供电技术。240V高压直流吸收了48V通信电源的各种优点,和传统的UPS技术相比起来,转换效率可高达96%以上。据浪潮服务器在TBA客户的使用效果来看,采用高压直流能够减少IDC整体能耗15%以上。
全新主板设计的SA5112M4能够提供能优的散热。通过业界最先进的VR供电设计,以及风扇模块避免回流解决方案,单台服务器功率将能降低15W。
优化散热设计
多样网络方案 兼顾当前着眼未来
目前IDC中采用千兆网络环境在国内属于主流。浪潮SA5112M4支持“双千兆”、“四千兆”、 “SAS+双千兆”等板载网络方案, 能够满足大部分网络应用的场景。从客户应用角度来看,越来越多的应用不再需要单节点更大的网络带宽,而是采用低性能多节点方式,所以拥有成本优势的千兆网络能满足很多应用对网络的开销。
灵活的网络配置
但从未来发展趋势来看,万兆将会在不远的将来成为互联网数据中心的主流。目前,国内的海量数据中心用户已开始向25 GbE,甚至更高的网络带宽。以某大型互联网企业应用为例,在机房网络从千兆升级到万兆后,整体业务性能提升了60%以上。因此,SA5112M4在支持多个千兆网络配置基础上,还能够通过外插形式将网络升级为万兆,避免了网络成为提升系统利用效率的瓶颈。
自动化管理,提升运维效率
浪潮SA5112M4支持PTAS功能,通过平台提供功耗、散热和工作负载的智能化来支持动态的资源管理。可以将运营成本降低约20%,,同时恢复高达50%的未使用的散热能力,并最大限度地提高了运营效率。
另外在硬件运维方面,SA5112M4的背板、电源、风扇、线缆、扩展卡等主要部件实现了免工具维护。主要问题都可通过前面板指示灯进行定位,直观地显示故障部件,减少运维工作量。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。