惠普企业(HPE)今天推出了 8 款全新的 ProLiant Compute Gen12 服务器,这些服务器具有先进的安全功能、针对复杂工作负载优化的性能以及 AI 驱动的管理特性。
这些服务器采用了新一代英特尔至强 6 处理器,该处理器专为高性能和高能效而设计。
ProLiant Compute DL384 Gen12 专为混合、内存密集型和 AI 工作负载而设计,如微调和基于检索增强生成的推理。它配备了 Nvidia GH200 NLV2,这是一个主要面向大语言模型推理的高性能平台,拥有 1.2 TB 内存。
ProLiant Compute DL380a Gen12 主要用于 AI 微调和大规模工作负载。它配备了 Nvidia H200 NVL Tensor Core 图形处理器,推理速度是 Nvidia H100 的两倍,并配有 6 个专用冗余 GPU 电源。
无人值守管理 新服务器采用了最新版本的集成无人值守(iLO)管理技术,即使服务器与组织的主网络断开连接,也能实现远程控制访问 ProLiant 服务器。它还具有增强型专用安全处理器(安全飞地),可建立牢不可破的信任链来防御固件攻击,同时提供 HPE 供应链的完整可视性。
HPE 表示,iLO 7 是首款具备抗量子计算能力的服务器,并满足高级 FIPS 140-3 Level 3 密码安全认证要求。
新服务器可通过 HPE Compute Ops Management(基于云的软件平台)进行管理,用于保护和自动化服务器环境。AI 驱动的自动化通过预测能源使用和设置阈值来帮助组织提高能效,控制成本和排放。新的全球地图视图使客户能够即时识别分布式 IT 环境中的服务器健康问题。自动化入门简化了远程位置的服务器设置和持续管理。
HPE 表示,新服务器每年可降低 65% 的电力成本,一台 Gen12 服务器可提供相当于七台 Gen10 服务器的计算性能。
可选液冷 HPE 还为单路和双路机架服务器提供可选的直接液冷。液冷所需的电力远低于空调,因为液体吸收和传递热量的效率是空气的 1000 倍。麦肯锡公司估计,冷却约占数据中心平均能耗的 40%。
"HPE 在液冷方面已有相当长的经验,"主流计算副总裁 John Carter 说,他提到了公司的 Cray 超级计算机。"我们拥有 300 多项专利,现在可以将它们应用到我们的主流企业产品组合中。"
HPE 表示,新系统具有防止量子计算破解加密算法的保护措施。安全专家认为,量子计算机可能在几秒钟内破解最强大的加密系统。
为应对这一风险,组织正在采用量子抗性算法,如基于哈希函数且没有已知量子漏洞的 Leighton-Micali 签名方案(LMS)。ProLiant Compute Gen12 服务器将 LMS 集成到 HPE 的 iLO 7 中,用于数字签名固件,确保安全启动过程并防止未经授权的修改。LMS 还集成到远程管理安全中,用于关键组件的身份验证和完整性。随着量子计算技术的发展,LMS 有望提供未来可靠的保护,无需立即更改加密方案。
搭载即将推出的英特尔至强 6 处理器的 8 款新型 HPE ProLiant Compute Gen12 服务器中的 6 款将于本季度上市。HPE Synergy 480 和 HPE ProLiant Compute DL580 Gen12 服务器预计将于今年夏季推出。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。