数据中心基础设施厂商思科、戴尔和联想今天都宣布升级服务器产品线,采用英特尔第三代Xeon Scalable处理器。

今天发布的芯片都是基于一个增强的架构,据称该架构提供了面向一系列数据中心工作负载的内置加速功能,以及诸如Software Guard Extensions和Total Memory Encryption等高级安全技术,此外还封装了最新版本的英特尔Optane永久内存模块。
思科表示,第三代英特尔Xeon Scalable芯片将为自己的新一代统一计算系统服务器提供动力,这些服务器专为“日益复杂的混合云环境”设计。目前思科已经公布了三款新型号,包括Cisco UCS B200 M6、C220 M6和C240 M6服务器,可提高性能、增强安全性、提高VDI、数据库、人工智能、机器学习和大数据等工作负载的效率。
思科表示,所有这些新服务器都原生集成了思科Intersight混合云操作平台,该平台主要用于大规模管理数据中心工作负载。思科称,这一集成是思科的一项关键优势,让客户能够通过Intersight平台基于策略的管理功能更轻松地在英特尔芯片上部署最新特性。思科称,客户可以提前调用PMem内存策略,以避免单独启用每一项新功能的繁琐操作。
思科表示,预计Cisco UCS B200 M6、C220 M6和C240 M6服务器将在90天内上市。
戴尔的新服务器产品组合中主要包括旗舰级Dell EMC PowerEdge R750,该服务器旨在运行包括VDFI和数据库分析在内的各种业务应用。戴尔表示,英特尔的新芯片让R750的性能比上一代Dell EMC PowerEdge R740.1服务器提高了43%。
戴尔服务器产品线中的其他新型号中,包括一个旗舰产品的修改版本Dell EMC PowerEdge R750xa,主要用于AI、机器学习和高性能计算工作负载,以及主要用于大规模运行软件容器的Dell EMC PowerEdge C6520。
“戴尔和英特尔这一强大的组合,将为您提供一个可以充当创新引擎的IT基础:随时准备以当今最高速度推进您的业务发展,并在市场需求旺盛时迅速调整档位,”戴尔产品管理高级副总裁Travis Vigil表示。
戴尔表示,这些PowerEdge服务器芯片将在第二季度上市,可通过Flex on Demand付费即用模式进行购买,从而让客户能够根据需要纵向扩展容量,并且仅按使用量进行付费。
联想方面,将发布一个新的ThinkSystem产品线,以一款面向大型企业和云提供商的 ThinkSystem SR650 V2服务器为首,专为“速度和扩展设计,具有针对业务关键型工作负载的灵活存储和I/O”。
还有ThinkSystem ST650 V2系统,体积更小,专为远程办公室和分支机构设计。联想还发布了四款集成了联想Neptune散热技术的服务器,主打低功耗,最高端的是ThinkSystem SD650 V2。最后联想承诺,很快将会推出基于英特尔新芯片的“高度坚固型边缘服务器”,以支持电信、制造业和智慧城市等场景。
联想副总裁、基础设施解决方案事业部总经理Kamran Amini表示:“我们的下一代ThinkSystem Server平台在性能、安全和效率之间实现了独有的平衡。结合联想在安全性、水冷却技术和即服务式经济性方面的创新,我们将让客户能够使用第三代英特尔Xeon Scalable处理器加速和保护各种工作负载。”
联想表示,客户将可以通过Lenovo TruScale Infrastructure Services直接购买或以“即服务”的方式购买这些ThinkSystem服务器新品。
好文章,需要你的鼓励
B&H近期对多款M5 Pro MacBook Pro机型推出300美元优惠。14英寸M5 Pro版本(48GB内存+1TB固态硬盘)现售价2299美元,较原价2599美元节省300美元,且该配置在亚马逊无法购买,折扣机会更为难得。此外,16英寸M5 Pro版本(64GB内存+1TB固态硬盘)同样享有300美元折扣。B&H在多款高配MacBook机型上的定价已低于亚马逊,是近期可找到的最优价格。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。