系统的定制和编译是手机行业研发部门的重点工作之一,也是对计算力的需求最多的应用之一。传统是靠刀片服务器作为主要的编译机,但是近期国内顶级的手机代工厂开始采用浪潮整机柜服务器SR作为系统编译的主要支撑。是什么让他们从传统刀片转向整机柜服务器?本文将与大家进行探讨。
除了硬件设计和生产,Android系统定制和开发是手机工厂最重要的业务之一,而各厂商的Android系统都需要进行不同的定制,每次定制过程都需要对系统进行一次编译。系统编译就是通过编译程序把高级语言变成手机可以识别的二进制语言,这一过程对于服务器的CPU、内存和IO有着较高要求。

系统编译属于计算密集型业务
最早,塔式服务器是主要的编译机,随着所需编译的系统版本越来越多,尤其是并行处理的任务增多,塔式服务器低密度、不易统一管理的弊端逐渐显露。为了提升系统编译的效率,对服务器进行统一的部署管理,国内的手机制造企业开始考虑对编译机器的升级。多数人将目光投向刀片服务器和整机柜服务器。
刀片服务器、整机柜服务器相对于机架服务器,都有着极大的计算密度和能效比优势。做个简单的对比,在相同条件下:刀片服务器可以节省30%能源成本,部署加快66%,数据中心空间需求减少80%,网络连接线缆减少92%;而整机柜服务器SR,能耗降低30%,部署速度提升10倍,部署密度提升100%,线缆减少93%。由此可见,刀片服务器与整机柜服务器优势相似,整机柜服务器SR有着与刀片服务器同样的高密度,但在部署速度上却更胜一筹。
但传统刀片服务器还存在一些问题,这些缺陷可能会在日后影响业务的发展。首先,从空间密度上来看,传统刀片服务器较机架服务器节省50%的空间,但是内部散热难度也随之增加,尤其是系统编译为主的业务应用,CPU负载率往往长期处于100%的状态,多核高主频CPU的发热量不容小觑。
更重要的是,传统刀片服务器的扩展性和灵活性较差。由于要达到较高密度,因此也舍弃了多余的空间,硬盘、PCIe设备等。如果有一些特殊的插卡需求,在应用传统刀片服务器的过程中,会受到限制。
而浪潮整机柜服务器SR在拥有更优的架构设计和能效比的同时,规避了传统刀片服务器的各种弊端。从散热来说,它采用的是背部大风扇墙设计,在保证高效散热的同时减少了93%的风扇数量。另外, SR每节点拥有更大的空间(纵深和宽度较大),因此风道设计更加合理,能够适应传统风冷甚至自然风冷的机房环境,并且可以搭配水冷背板,达到更优的制冷效率。
其次,整机柜服务器SR拥有更好的扩展性。由于传统刀片服务器内部空间有限,计算、存储、IO三者通常不可兼得,拥有双路CPU和多内存扩展的传统刀片,往往缺少PCIe扩展支持,需要专用的扩展模块来实现。而SR支持1U1全宽计算节点或者2个半宽计算节点,每节点支持双路CPU+16条内存,同时拥有8块2.5寸硬盘(支持热插拔SSD)的存储配备,适应更多业务应用场景。
按需定制,非专业机房同样可以部署
编译应用对计算性能和IO要求较高,但不需要太大的存储空间,因此采用浪潮整机柜服务器SR的计算类节点即可支撑,E5-2600v4 CPU搭配少量拥有较高IOPS的SSD,还留有更多内存和存储扩展的冗余,保障后期的升级扩容。同时能够实现不同节点的混合部署,在业务量提升后,能够通过更换节点的形式进行高效的弹性扩容。
采用钢板和支架加固,传统机房也可部署浪潮整机柜服务器SR
像SN6110M4s这类计算类的SR节点的计算密度高,在满配32节点的情况下,整机重量不足1吨。虽然大部分手机企业机房不是整机柜专用机房,采用此类节点,也仅需通过钢板加固即可完成上架使用。
性能满足业务,远期成本更优
经过实际的测试,浪潮整机柜服务器SR与之前其采用的塔式高性能编译机相比,有15%左右的性能提升。实际编译过程中,整机柜服务器SR的内存和CPU负载较高,充分发挥了计算资源利用效率。但此时远程ssh操作不会出现卡顿现象,由此在满足系统编译需求的同时,避免了计算资源的短缺和过剩。
而在服务器本身的性能提升之外,浪潮整机柜服务器SR还可以将机房密度提升5倍以上。曾有客户原有机房空间较小,单个机房内部仅可容纳5个标准机架位,采用塔式服务器仅放置了30台左右。而整机柜服务器SR单机柜就实现了32节点的部署,为客户日后的扩容节省了空间。
并且,服务器的生命周期通常会有三年,电力消耗、空间租用费用、制冷费用、运维费用等都需要长期的投入,因此远期成本的节省更为关键。而浪潮整机柜服务器SR采用集中供电、集中散热和集中管理,与通用服务器相比最高会有30%功耗降低、9%的电源转换效率提升、2倍以上的机房密度提升,最终可将TCO降低12%以上。在12306的实测数据显示,在使用整机柜服务器SR替代传统刀片服务器后,将能够节省了60%的机房空间和10%的功耗成本。
目前,浪潮整机柜服务器SR市场占有率超过60%,并且早已经不是大型互联网企业的专属,在中国移动、12306、奥鹏教育、上海宽带中心、华勤等知名客户处都已经批量落地应用。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。