ZD至顶网服务器频道 09月28日 新闻消息(文/邹大斌):ARM要进军服务器市场已经不是新闻了。不只是ARM多次表露出对服务器市场的决心,其生态系统中的多家厂商宣布响应ARM的号召,积极实现搭载ARM的服务器的落地工作。这其中今年高通在贵州成立了合资公司专门研发和生产ARM服务器更是吊足了人们的胃口。不过,高通中国公司负责人日前透露,搭载高通ARM CPU的服务器明年才会上市。看到这个消息,可能有些ARM服务器的期待者有些失望。的确,虽然已有一些厂商宣布推出了ARM服务器,但在中国服务器市场上也是“只听楼梯响,不见人下楼”。不过,不要紧,中国有一家厂商已经真正推出了全新ARM服务器,那就是天地超云。日前,天地超云宣布正式推出两款ARM服务器。
近几年随着云计算、大数据的普及,数据中心规模正在向大型、超大型方向发展。有研究机构预测,未来五年超过60%的数据中心投资增长将来自超大规模数据中心。其中,5000台以上的数据中心将占到总体的68%以上,在这个过程中能耗问题日益突出。根据有关机构的统计,3年的数据中心用电成本可以建一个新的数据中心。这就促使人们还是思考如何来降低数据中心的能耗,搭载ARM CPU的低功耗服务器由此受到关注。
众所周知,ARM芯片技术以功耗小、成本低、每瓦特性能高而著称,这些特性有可能会让ARM在帮助数据中心降低总体拥有成本的时候更加具有优势,从而成为替代传统基础设施的方案之一。而ARM也注意到这一趋势,并积极为之努力,推出了面向服务器市场的CPU参考架构。同时,ARM也在加速构建自身的软件生态体系,减少系统迁移的复杂度,为业务提供更多元化的选择。
在ARM的连续布局和努力下,一个完整的生态系统开始出现。目前ARM处理器厂商有AMD、高通、Cavium、Broadcom、APM,曾推出过ARM服务器平台的厂商则包括惠普、戴尔、技嘉、神达等。而天地超云通过最近发布的两款ARM服务器产品也正式加入到ARM的这个生态系统。
天地超云本次发布的两款产品分别为R6240 M10 2U4节点高密度众核服务器和R5210 M10 2U双路服务器。这两款ARM服务器产品,一方面是瞄准了数据中心领域的应用,符合长期以来专注数据中心基础设施产品与解决方案的定位,另一方面也是紧跟技术发展的趋势,期待能在ARM领域有所突破,实现市场的开拓。
R6240 M10是一款面向大规模运算、分布式计算、云计算以及软件定义应用领域的多节点产品,可为数据中心提供优化的解决方案,支持节点热插拔,每节点可配置两颗64位48核心处理器,整机高达384核心;单节点配备16根RDIMM DDR4内存,支持4块热插拔盘位,板载2个40G QSFP网络端口。
天地超云R6240 M10 ARM服务器
R5210 M10是一款双路通用型服务器,适用于大数据分析、分布式存储、网络功能虚拟化以及安全网监和互联网数据中心的客户群体。在2U空间内同样支持两颗64位48核心处理器,配备16根RDIMM DDR4内存,支持12块热插拔盘位,板载4个10G SFP+端口和3个40G QSFP网络端口。
天地超云R5210 M10 ARM服务器
天地超云R5210 M10 ARM服务器本次超云发布的两款产品均采用Cavium ThunderX ARMv8 64位处理器,22nm的工艺设计,主频可达2.0GHz,支持全新2133MHz 频率的DDR4 Recc内存。ThunderX系列处理器整合了硬件加速器,大幅提升虚拟化、储存、安全、网络等方面性能,具备高内存带宽、大容量内存、集成硬件加速器,完全虚拟化的核心和I/O。
据超云ARM产品负责人称,超云一直将自主创新视为企业发展的持续动力,不断完善符合自身特点的系统创新机制,使企业具备持续的技术创新能力。超云积极拥抱ARM生态系统,与产业上下游建立了战略合作关系,包括产品设计、方案制定、联合开发等,并已承接了政府领域的ARM相关科研课题。
在未来,ARM服务器前景如何、超云能否凭借差异化创新建立自己的核心竞争力,还需要我们继续关注。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。