中国,北京(2021年3月15日)——安晟培半导体科技有限公司(Ampere Computing)于日前公布了云原生服务器处理器Ampere® Altra® Max样片的基准测试数据。Ampere Altra Max是Ampere继去年3月发布的80核Altra® 处理器后即将推出的重磅新品,内核数量达到业界领先的128核,专为云原生架构打造,展现出再创新高的性能和可扩展性。

图1:Ampere Altra Max与Ampere Altra实测性能对比
加密数量再升级
Ampere Altra Max的实验室的测试结果显示,在进行AES-256-gcm加密计算时,它可以加密的数据块比Ampere Altra多出57%,所用密钥大小从16到16K字节不等。加密是许多云工作负载中的一项基本任务。高级加密标准(AES)是一种快速、安全的对称分组密码,已在业界和美国政府中广泛使用。
媒体编码新王者
测试结果表明,Ampere Altra Max每秒编码帧数比Ampere Altra高出55%。而过往的测试显示,Ampere Altra的编码性能已经领先于当前的x86处理器(如图2所示),Ampere Altra Max则比Ampere Altra更强。

图2:Ampere Altra媒体编码性能与x86处理器对比
软件媒体编码仍然是云中流行的工作负载,h.264是当今在线使用的最流行的视频编解码器。编码媒体是质量和吞吐量之间的平衡,通常利用配置文件、分辨率和比特率的特定组合对尽可能多的片段进行编码。
NGINX 开挂新神器
测试结果显示,在搭载Ampere Altra Max的情况下,NGINX Web服务器的p.99延迟SLA(服务水平协议)为10ms,吞吐量比搭载Ampere Altra的情况下高51%。NGINX是一种高性能、轻量级的Web服务器,也可以用作反向代理,负载平衡器,邮件代理和HTTP缓存。 Web服务器的性能指标通常是在指定的SLA下的吞吐量或每秒请求数,例如p.99延迟。
Ampere重磅力作,云上新王者
总体而言,Ampere Altra Max不仅内核数大幅提升,还将其可扩展性转化为超过50%的实际性能提升。 Ampere保持着快速的产品开发节奏,并每年带来突破性的性能提升。Ampere将推出的新产品能够在现代的工作负载下表现出色,并能够比其他CPU产品为用户带来更高的收益。
Ampere 应用工程高级总监Naren Nayak表示:“我们承诺,将保持快速且可预测的产品发布节奏。云服务提供商也认为这是保持可持续、快速增长的先决条件。Ampere Altra Max是我们产品计划中的又一个重大飞跃,它有望在几个月内投入生产。Ampere Altra Max专为横向扩展而设计,同时延续了我们内核密度行业领先的一贯风格——具备128核。60%的内核数提升也大幅地提高了Altra Max的可扩展性,这让它非常适用于云原生架构。难以想象,四年前,服务器处理器的最高核数是32核。”
Naren Nayak补充道:“在Ampere,除了云原生处理的两大核心需求——可预测的高性能和高能效比之外,我们还坚定地致力于持续提升产品的横向扩展性,这在Ampere Altra Max中得到了充分的体现。未来几个月,我们将公布更多关于新品Altra Max的信息,欢迎继续关注。”
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
Meta公司FAIR实验室与UCLA合作开发了名为HoneyBee的超大规模视觉推理数据集,包含250万训练样本。研究揭示了构建高质量AI视觉推理训练数据的系统方法,发现数据质量比数量更重要,最佳数据源比最差数据源性能提升11.4%。关键创新包括"图片说明书"技术和文字-图片混合训练法,分别提升3.3%和7.5%准确率。HoneyBee训练的AI在多项测试中显著超越同规模模型,同时降低73%推理成本。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
上海AI实验室团队提出ViCO训练策略,让多模态大语言模型能够根据图像语义复杂度智能分配计算资源。通过两阶段训练和视觉路由器,该方法在压缩50%视觉词汇的同时保持99.6%性能,推理速度提升近一倍,为AI效率优化提供了新思路。