HPE现有的一部分Apollo超级计算服务器采用的是Skylake,现在可以拥抱基于ARM的早期型号了。
在今年SC17大会上,HPE在Apollo方面公布了:
- Apollo 2000 Gen 10 (G10)
- Apollo 70,采用ARM CPU
- Apollo 4510 Gen 10,针对对象存储
- LTO-8磁带驱动器和磁带库
我们应该注意到,Apollo 2000 Gen 10与HPE Apollo 10系统是不一样的。可以把现有不带Gen 10的Apollo系统看作是采用ProLiant Gen 9服务器(Skylake的上一代)的Apollo。
这是一个2U机架,可容纳最多4个半宽的ProLiant G10服务器(节点):XL170r以及/或者XL190r,可以在同一机箱内混合使用。r2200机箱可最多配置12个大尺寸(LFF - 3.5英寸)驱动器,而r2600机箱可以配置24个小尺寸(SFF - 2.5英寸)驱动器。
r2000机箱可容纳2个XL190r服务器,每台服务器最多可配置2个NVIDIA(V100)、AMD和英特尔GPU,机箱内总共可配置4个GPU。
或者,r2000可以容纳4个XL170r服务器,没有GPU。你可以选择带有GPU的HPC,或者没有。
r2800机箱采用了“驱动器映射”,为机箱内的每台服务器分配存储。r2200和r2600跨服务器节点均衡地分配驱动器。
选配项包括Xeon Scalable处理器、大容量内存、加速器、高速/低延迟HPC集群和I/O互连。
一个42U的机架可以配置最多20个HPE Apollo r2000系列机箱,以及每个机架最多80台HPE ProLiant Gen10服务器。
Apollo 70
目前HPE没有提供这款服务器的规格表。我们知道它是采用了Cavium 64位ARMv8-A ThunderX2 CPU,但是我们并不知道规格、CPU数量、RAM或者任何其他技术细节。
HPE表示,它支持标准HPE配置、集群管理和性能软件。HPE表示,这是针对内存密集型HPE工作负责设计的,内存带宽要比当前的行业标准服务器高出33%,但是这么没有指明是哪些行业标准服务器。
该服务器还支持Mellanox InfiniBand和以太网框架访问,你可以在这台服务器上运行Red Hat Enterprise Linux和SUSE Linux Enterprise Server for ARM。
Apollo 4510 Gen 10
这款Apollo有点奇怪,因为在HPE网站的Apollo页面上,并没有将其分类为一款HPC级的系统。
现有的Apollo 4510是一个4U机箱,一台服务器(采用1个或者2个至强E5-2600 v3和v4系列处理器,总共最多22个核心)、1TB RAM、最多60个8TB3.5英寸磁盘驱动器,也就是每台服务器最多544TB容量。
新推出的4510 Gen 10保留了4U的规格,但是可容纳最多2个Xeon Scalable处理器(Platinum、Gold或者Silver),有4-26个核心;85-150W;1.8 - 3.6 GHz。基本就是这些,4510 Gen 10是一款基于Skylake的4510系统,支持NVMe卡。
Apollo 4510 Gen 10
HPE表示,这款系统的核心数量要比上一代多出16%,NVMe卡可用于Scality RING元数据缓存,所有LFF驱动器托架可以留给对象数据存储。
我们还应该注意到,4510 Gen 10有一个新的前端加载、双抽屉设计以及标准机架深度。
LTO-8磁带
这很简单,LTO-7升级到了容量翻一番(30TB)、速度提升20%(最高可达到每秒360MB传输速率)的LTO-8磁带,而且LTO-8支持(SpectaLogic)TFinity ExaScale磁带库。
HPE表示,磁带正在复苏,作为一个防止网络犯罪和勒索软件的附加保护层。
Apollo 2000和4510今天已经开始供货。LTO-8磁带将在2017年12月供货,Apollo 70在2018年供货。
好文章,需要你的鼓励
Intermedia 推出业内首个将统一通信和客户体验功能完全嵌入微软 Teams 的服务。这项创新不仅提升了 Teams 用户的生产力,还改善了客户体验。新功能支持多渠道通信、企业级通话功能和 AI 分析,为企业提供了一个强大的通信和客户体验平台。
Komprise 推出了 AI 驱动的数据管道,可自动检测和保护个人隐私信息 (PII)。这项新功能旨在帮助企业防止 PII 和其他敏感数据泄露,应对非结构化数据增长和生成式 AI 带来的风险。通过系统化方法减少敏感数据风险,提升网络安全和 AI 数据治理能力。
Oumi PBC公司宣布推出全球首个"无条件开放的AI平台",旨在通过提供开放访问基础模型、数据集和开发工具,创建协作式AI研发生态系统。该平台支持从1000万到4050亿参数的模型训练,适用于文本和多模态模型,并集成了多种流行的推理引擎。Oumi致力于打破当前AI研究领域的创新壁垒,加速AI领域的进展和发现。
阿里云发布最新大语言模型 Qwen 2.5-Max,声称性能超越当前最强 AI 模型。该模型采用专家混合架构,经过 20 万亿 token 预训练和后续强化学习,在多项基准测试中超越 DeepSeek-V3 等模型。Qwen 2.5-Max 目前通过阿里云 API 提供服务,但尚未开源。