ZD至顶网服务器频道 04月12日 新闻消息:4月7日,戴尔发布更新了自己的第13代PowerEdge服务器,支持英特尔最新的Broadwell处理器,以及多项新管理功能以及软件定义存储能力,戴尔表示,这将有助于降低服务器的总拥有成本。
在服务器方面戴尔已经有差不多20年的历史,而第13代服务器实际上是在2014年发布的,当时发布的时候,使用了英特尔E5 V3系列的CPU,这在当时是最新发布的E5系列处理器。此次戴尔升级的第13代服务器核心是英特尔最近推出的新的至强E5-2600 v4处理器。
戴尔此次升级的产品非常多,共有九款,包括四款主流2路通用服务器R730, R730xd, R630, T630;刀片服务器M630,融合基础架构服务器FC630,FC430,云计算服务器C4130,C6320。
三大优势:
“我们第13代服务器的技术创新,主要的特点是强大、简单、灵活三个方面”, 戴尔大中华区企业解决方案高级经理徐海表示,“除了机架式服务器我们还有刀片服务器、中小环境里面用的VRTX服务器,还有非常有创新特色的FX2的融合架构下的模块化服务器。”
第一, 强大。强大体现在性能方面。
第13代服务器在性能方面的强大除了得益于CPU和内存的升级,更主要是存储方面的创新。主要是这几点,使用了PCI Express Flash,它使得数据读写的IO速度比普通的SAS SSD又得到一个数量级的提升;其次在服务器内部可以混合使用多种不同性能和容量的硬盘,从而提升存储的性能和效率;三是更好地支持软件定义存储这种新的架构,在同样空间内,硬盘的数量和容量大幅提升。
第二, 简化。简化体现在服务器管理方面。
服务器的管理更加自动化。支持将一台服务器的BIOS的配置抓成XML文件,并通过USB介质将XML文件自动导入iDRAC,从而对服务器的BIOS进行设置。也可以使用网络的方式,批量快速地使用XML文件配置服务器。例如一个具有128计算节点的高性能计算集群,当我们需要对服务器进行BIOS初始化时,可以把BIOS的配置文件放到网络存储上。
第三, 灵活。用户可以根据自己的计算环境和工作负载,去灵活选择定制的服务器平台,避免过度配置。
灵活的特点体现在丰富的产品家族。除了提供传统的机架式服务器以外,戴尔还有三个系列的产品(刀片服务器、PowerEdge VRTX服务器、FX2)供选择以供满足不同的工作负载需求。
独有技术 不止是性能
在最新推出的戴尔PowerEdge第13代服务器中,戴尔大中华区企业解决方案服务器产品高级经理李毅表示,新推出的戴尔PowerEdge第 13代服务器具有五大创新服务器技术:虚拟灵活分区背板、载有先进气流散热设计、支持软件定义存储HBA330、HTML5虚拟控制台视图以及 Redfish 1.0支持的iDRAC,这些技术对服务器的是非常重要的。
例如PowerEdge R730XD是戴尔容量最高的服务器,也是首款采用可热插拔NVMe SSD的行业标准服务器。R730XD还采用了戴尔新的Virtual Flex Zoning背板,可以实现硬盘和SSD混合的灵活部署,以及一个新的软件定义存储优化的主机总线适配器HBA 330。HBA 330在部署了软件定义存储的时候会去掉不需要的RAID能力,从而降低成本。
总而言之,本次戴尔第13代PowerEdge的中期升级总的概括起来就是 “一个中心(以客户为中心)、两个基本点(Broadwell CPU和MTS 2400 DDR4内存)、五大创新技术、九大更新产品”。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。