Dell EMC和超微(Super Micro)正在对其数据中心服务器产品阵容进行升级,推出了采用英特尔最新第二代Xeon Scalable处理器的新系统。
今天推出的新款服务器还采用了英特尔Optane DC永久内存以及旨在加速人工智能工作负载的Deep Learning Boost技术。
据称,英特尔第二代Xeon Scalable处理器比前几代处理器更快、更高效,同时Optane DC永久内存也有助于提高存储容量。两者的结合可以更好地提高整体性能,降低总拥有成本,以及提供更好的管控和安全功能。同时,英特尔的Deep Learning Boost技术旨在针对那些需要更高处理能力的特定工作负载(例如内存数据库、虚拟化和数据分析)提高性能表现。
Dell EMC方面将升级高端PowerEdge服务器系列以及OpenManage管理系统,后一项更新很有意思,因为这项更新为数据中心运营者提供了更高的灵活性,可以从操作系统而不是管理网络对服务器进行直接管理。
Dell EMC表示,新的OpenManage系统架构还有助于减少满足用户特定需求所需的控制台数量。此外,新的移动功能让数据中心运营者可以选择从移动设备管理基础设施。例如,用户现在可以直接从智能手机上查看任何事件的图形表示,并采取措施对其进行补救。
OpenManage还提供了新功能用于配置那些采用Optane DC永久内存的服务器。新系统能够自动配置BIOS、驱动器和内存,然后跨多个服务器复制这些设置。
PowerEdge服务器本身也受益于英特尔最新第二代Xeon Scalable处理器在性能上的提升。例如Dell EMC称,这让核心业务应用的性能提高了40%。此外,全新的英特尔Optane DC永久内存让内存容量提高了2.5倍,这也让内存数据库、虚拟化和分析工作负载从中受益。
Moor Insights&Strategy总裁兼首席分析师Patrick Moorhead表示,英特尔第二代Xeon Scalable芯片的最大亮点就是它的机器学习功能,这些功能非常适用于参考引擎等推理工作负载,对这些工作负载来说延迟至关重要。
Moorhead表示:“第二代至强还支持Optane永久内存,针对像HANA这样的应用,可以从根本上提高TCO。英特尔的调优功能将得到云服务提供商的广泛认可。”
超微新推出的服务器产品线中也有类似的改进,包括令人惊讶的100多个更新系统。超微提供极为广泛的服务器产品组合,针对任何类型的情况或者客户都进行了优化,包括特有的资源节约型服务器;实现性能最大化的“Ultra SuperServers”;针对要求最低延迟的高性能应用的“全闪存”服务器;以及针对内存数据库和实时分析的“多处理器”系统。超微方面表示,所有这些系统都基于英特尔最新的处理器进行了升级,从而提高了性能,降低了总拥有成本,并减少了对环境的影响。
“我们的设计充分利用了第二代英特尔Xeon Scalable处理器的新功能,例如DIMM速度提高10%,内存容量增加1.5倍,CPU频率高达3.8GHz,以及英特尔Optane DC永久内存,”超微公司首席执行官Charles Liang表示。
Dell EMC方面表示,新的PowerEdge服务器阵容将于4月16日全面上市,OpenManage更新将在第二季度推出,另外第二季度会在选定的服务器型号上提供英特尔Optane DC永久。
超微方面还没有公布这些升级服务器的上市时间。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。