2023 年 5 月 19 日,中国北京——Ampere® Computing 宣布推出全新 AmpereOne™ 系列处理器,该处理器拥有多达 192 个单线程 Ampere 核,内核数量为业界最高。这是第一款基于 Ampere 新自研核的产品,由 Ampere 自有 IP 全新打造。
致力于为行业提供一种现代化的方案,Ampere 首席执行官 Renée James 创立了 Ampere Computing,为提升云计算的效率和性能而设计处理器。Renée James 表示,云计算行业正在经历根本性的转变,需要一种全新的设计方法。
Renée James 表示:“每隔数十年,计算行业就会出现一种驱动性的新应用,或是演变出全新的性能要求,重新定义性能。人工智能正是当前具有驱动性的应用,它可以将我们对流媒体的长期应用和用户需求与其他相关的一切结合。我们不能继续把功耗作为衡量数据中心性能的关键指标。在 Ampere,我们设计的产品能够基于可持续的功耗提供最大化的性能,从而助推行业未来的发展。”
凭借 Ampere® Altra® 和 Ampere® Altra® Max 处理器,Ampere 在业内首创了云原生处理器的类别,并始终专注于践行承诺,提供可预测的产品,并以快节奏推出新产品,在性能和效率方面引领市场。Ampere 于今日正式推出基于 Ampere 核的最新 AmpereOne 系列处理器,进一步助推高效、高性能计算的深入发展。
随着 AmpereOne 的正式推出,Ampere 丰富了产品组合,同时进一步提升了产品的性能、可扩展性和效率。此外,Ampere® Altra® 和 Ampere® Altra® Max 将继续为云以及其他需要以最低能耗提供最高性能的关键细分市场服务。
Ampere 首席产品官 Jeff Wittich 表示:“AmpereOne 意味着更多——更多内核、更多 IO、更多内存、更高性能和更多云功能。Ampere 的自研云原生核(Custom Cloud Native Core)是打破传统计算限制的下一步,目前业内没有其他可以与之相匹敌的 CPU 产品,它可助力实现单机架性能最大化的云规模(Cloud Scale)。”
AmpereOne 由 Ampere 全新打造,具备 192 个自研设计的 Ampere 核、大型云优化私有缓存,以及针对 AI 等高增长的云应用的新功能。这些新功能,如网格拥塞管理(Mesh Congestion Management)、细粒度电源管理(Fine Grained Power Management)和内存标签(Memory Tagging)等,为高性能、高利用率的多用户环境(如云)提高了性能一致性、可管理性和安全性。通过增加 8 通道的 DDR5 内存和128 通道的 PCIe Gen5 IO,整个平台实现了扩展。该处理器基于 5nm 工艺节点制造。Jeff Wittich 表示:“基于这些技术创新,我们为云工作负载提供了业界最高效、最高性能的核。AmpereOne 为 Ampere 客户的云原生工作负载提供了最高的整体性能、可扩展性和密度。此外,得益于低延迟和高吞吐量,Ampere 云原生处理器在 AI 推理方面较其他 CPU 有 2 倍以上的性能优势。*”
随着 AmpereOne 系列处理器的推出,Ampere 不断丰富产品组合,满足所有云原生计算需求——从最低的功耗、最多的限制条件,到规模最大的客户需求。Ampere 的客户群正在不断扩大,包括谷歌云、微软 Azure、甲骨文云、阿里云、百度云、京东云和腾讯云等领先的云服务提供商(CSP),以及 HPE 和 Supermicro 等领先的原始设备制造商(OEM),这也体现了客户对 Ampere 产品组合的信心。
Renée James 表示,计算的基础架构正在发生根本性的转变,这使得以更高的效率获得更高的性能成为新的当务之急。
她表示:“我们的行业正在迎来一个全新的时刻,我们也应当拥抱变革。它将决定着行业未来的增长。云技术开创了一个全新的世界和新的软件开发方法。微处理器也该做同样的事情。”
算力需求的指数级增长加剧了对架构转变的需求,同时也引发了数据中心与关键的商业和住宅开发项目对电力资源的争夺。Renée James 表示:“可持续性不再只是实现 ESG 目标的一部分——它对于未来所有计算的增长都至关重要。”
好文章,需要你的鼓励
UniR(Universal Reasoner)是一种创新的推理增强方法,可为冻结的大语言模型提供即插即用的推理能力。由韩国科学技术院研究团队开发,该方法将推理能力分解为独立的轻量级模块,无需改变主模型结构。UniR的核心优势在于高效训练(仅更新小型推理模块)、出色的模型间迁移能力(小模型可指导大模型)以及模块组合能力(多个专用模块可通过logits相加组合使用)。在数学推理和翻译测试中,UniR显著超越现有微调方法,展示了轻量级模块如何有效增强大语言模型的推理能力。
Nebius团队开发了SWE-rebench,一个自动化管道用于从GitHub收集软件工程任务并进行去污染评估。该系统解决了两大挑战:高质量训练数据稀缺和评估基准容易被污染。通过四阶段处理(初步收集、自动安装配置、执行验证和质量评估),SWE-rebench构建了包含超过21,000个Python交互式任务的数据集,并提供持续更新的评估基准。研究发现部分语言模型在传统基准上的表现可能被污染效应夸大,而DeepSeek模型在开源模型中表现最为稳健。
这项研究提出了JQL(发音为"Jackal"),一种通过多语言方法提升大型语言模型预训练数据质量的创新系统。研究团队从拉马尔研究所等机构通过四阶段方法解决了多语言数据筛选的难题:先由人类评估内容教育价值创建基准数据,然后评估大型语言模型作为"评判者"的能力,接着将这些能力提炼到轻量级评估器中,最后应用于大规模数据筛选。实验表明,JQL在35种语言上显著优于现有方法,甚至能泛化到未见过的语言如阿拉伯语和中文,为多语言AI发展提供了高效可靠的数据筛选方案。
浙江大学和西湖大学研究团队开发的Styl3R实现了艺术风格化3D重建的重大突破,能在不到一秒内从少量未标定照片和任意风格图像创建具有多视角一致性的3D艺术场景。通过创新的双分支网络架构将结构建模与外观着色分离,系统不仅保持了原始场景结构,还准确捕捉了参考风格特征。与现有方法相比,Styl3R在处理速度和视觉质量上均显著领先,为创意内容制作开辟了全新可能。