至顶网服务器频道 05月31日 新闻消息:浪潮关键应用主机天梭M13是我国自主研制的在线交易处理性能最强的单机服务器系统,面向对稳定性和可用性极高的银行、政府、大企业的超大型数据库应用而设计。关键业务计算处理的是高价值、高质量的数据,例如银行卡系统、个人信贷审批、会计审批、中央社保管理系统等等,这类数据是一个企业的核心业务数据,被誉为"数据金矿",重要性不言而喻。在银行、保险等行业的关键业务中,这些数据容不得半点错误。
关键业务呈现出复杂性、强时效性和高并发等特点,对IT系统不光提出了性能的要求,更提出了高稳定性、高可用性的要求。而高可用性正是天梭M13最大的特点,多层级RAS特性设计是一个自顶向下的系统工程,浪潮在硬件、系统和应用等三个层面采用了整体性的高可用技术,使得天梭M13系统能够提供7*24的业务连续性。本文介绍天梭M13关键应用主机的众多高可用技术之一-分段内存镜像功能。

浪潮天梭M13关键应用主机
分段内存镜像功能: 提高系统可用性的同时减少内存资源浪费
内存故障是引起系统停机的主要原因之,内存镜像功能(Memory Mirroring)是解决这一问题的重要手段。内存镜像功能是服务器上重要的RAS特性之一,指将服务器上的内存分为两个频道,一个频道是另一个频道的镜像,用来创建内存的冗余副本,在主内存数据发生错误时自动从镜像内存中读取,从而确保整个系统的稳定可靠。但此技术原则上需要牺牲整个系统一半的内存容量为代价,这对于最高可配备48TB内存容量的天梭M13来说无疑是难以接受的。
目前较新的Intel处理器已支持分段内存镜像技术(即部分内存镜像特征),利用此特性,天梭M13可在其搭载的关键应用系统K-UX(3.2或更高版本)中人为指定某块区域作为镜像,将关键核心数据放入镜像内存区,以享受内存镜像功能带来的高可用性,非关键数据所占内存区域不做镜像处理。这样既保证了核心业务稳定运行,又极大程度避免了内存资源的浪费。
分段内存镜像功能如何实现?
如图所示ch0的Region1和ch2的Region1被设置为内存镜像区域,其他Region没有配置镜像,(总内存容量-内存镜像区域配置容量)即为OS实际可用内存容量。
另外这一特性也需要OS层面支持,原理如下:
在NUMA架构的服务器上,每个物理CPU为一个node,可以通过BIOS为每个node上配置分段j内存镜像区域,OS解析BIOS上传的EFI内存区域属性配置表,调整内存管理区域,保证内核关键数据使用的内存分配在内存镜像区域,应用程序使用的内存分配在非镜像区域。
对于一个由两个node 组成的系统,在每个node上都配有mirror 区域,OS将镜像区域设置为normal,用于分配内核数据;非镜像区域设置为movable,用于分配应用层数据。
K-UX 3.2及以上版本提供对分段内存镜像的支持。系统启动时通过BIOS设置分段内存镜像区域,建议预留不低于内存总容量的1/64作为内存镜像区域。操作系统默认关闭内存镜像特性,用户可根据实际情况选择配置操作系统内存镜像相关属性。
浪潮关键应用主机天梭M13强大的高可用技术,可以有效避免硬件故障、单点设备故障以及数据中心灾害等各种情况对系统业务的影响,帮助客户应对移动互联时代对IT基础设施带来的挑战。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。