随着英特尔至强第三代可扩展处理器的推出,各服务器厂商纷纷对自己的服务器产品进行更新。日前,中兴通讯举办服务器新品发布会,正式推出基于英特尔至强第三代可扩展处理器的全新一代G4X系列服务器产品。中兴通讯此次发布了两款新品,包括ZTE R5300 G4X通用服务器和R5500 G4X大存储服务器,具备极致性能、灵活扩展、稳定可靠和极简运维等特性,将为千行百业的数字化转型提供强劲的算力支撑。
中兴通讯自2005年起就开始服务器存储产品的研究和开发,进军服务器、存储市场已经有超过10年的历史,在运营商市场服务器占有率位居一线,但中兴通讯在运营商之外一直是一个低调的存在。实际上,除了运营商市场外中兴通讯在政企市场同样表现不俗。中兴通讯服务器存储产品在金融、电力、政务等行业都拥有不少客户。其中,在头部的城商行、农信社中兴通讯都实现了规模销售,为金融科技建设提供强劲算力和海量存储。在政务领域,中兴通讯服务器存储产品落户到多个大部委、省/市政府;在电力行业已经成为电网、电力公司的主流供应方。
“中兴服务器已服务于全球30多个国家和地区,广泛覆盖电信、金融、政务、电力、交通等行业。”中兴通讯副总裁、服务器存储产品线总经理郭树波表示。
特别是2015年以来中兴通讯在服务器市场得到突破,实现了跨越式成长。2016年到2020年,中兴通讯服务器存储营收增长7.9倍。郭树波说,2021年中兴通讯将全面发力国内外政企和运营商市场,除了继续聚焦优势的金融、电力行业外,还将大力拓展互联网、教育、工业互联网等领域。
除了行业拓展之外,今年中兴通讯也将继续打磨产品,让更多好的服务器和存储设备推向市场。郭树波介绍,中兴通讯的存储和服务器全部实现自主研发,强大的产品研发能力,能同时提供多种算力平台,包括Intel平台、AMD平台,是国内仅有的几家具备存储产品真正自主研发能力的厂家之一。
“高质量、性价比高是中兴通讯的产品一大特点。中兴通讯全系列服务器通过多种创新设计方案,最大限度提升算力、提升存储容量密度、降低能耗、简化运维,灵活适配不同应用场景,有效降低采购成本、机房空间和运维成本。”郭树波说。
此次推出的两款服务器ZTE R5300 G4X通用服务器和R5500 G4X大存储服务器就是集中兴通讯众多创新技术于一体。这两款G4X服务器都采用了最新的英特尔至强第三代可扩展处理器,双路最大支持80核,提供超强通用算力;提供16通道、32个内存插槽,内存速率提升到3200MT/s,且支持英特尔最新一代的傲腾 200系列持久性内存。
为了用户对AI应用的需求,G4X系列服务器内置智能加速引擎,可根据不同应用场景灵活调度各种不同的异构算力资源,实现算力的最佳组合,如CPU+GPU、CPU+FPGA,满足人工智能、图像处理、工业控制等场景,将计算潜能发挥到极致。
中兴G4X服务器基于模块化设计和统一的软件平台,具备灵活的扩展能力,通过按需配置,匹配不同应用场景的差异化需求。如R5300 G4X可配置41个2.5吋盘位或 20个3.5吋盘位+4个2.5吋盘位,提供大容量存储;支持28个 NVMe SSD,提供高速I/O接口,解决传统方案中硬盘访问慢的瓶颈;最多可配置8个T4 GPU或4个A100 GPU,提供极致的异构算力。
尤其值得一提的是,中兴G4X服务器秉承了中兴服务器 “CT”基因,在设计、生产、测试、检验等环节,始终坚持电信级高标准、零缺陷。和上一代服务器相比,新一代服务器在主板布局、电源模块布局、散热等方面进行了多重优化,提高了设备可靠性。
另外,极简运维也是中兴G4X服务器的一大亮点。中兴G4X服务器通过智能网管Uniview以及自动化运维套件Unikits,实现服务器运维的远程、自动化和智能化管理,极大提高服务器的开通效率,降低运维难度和运维成本。
面向未来,郭树波表示:“面向行业数字化转型,中兴通讯致力于成为数字经济的筑路者,持续提升三大核心能力:产品硬实力、技术创新力、生态聚合力,在产品研发、生产、供应链和售后服务等方面均已做好准备,为各千行百业的数字化转型提供动能。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。