【2016年5月26日,美国加州圣何塞】近日,AMD、ARM、华为、IBM、Mellanox、高通公司下属的高通技术公司和赛灵思公司联手为数据中心带来高性能的开放加速架构。合作各方正在携手制定新的加速器缓存一致性(CCIX)规范,利用这一互连技术规范,将首次在业内确保使用不同指令集架构 (ISA) 的处理器能与加速器协调地分享数据,使高效的异构计算成为可能,从而大幅度提升运行数据中心工作负载的服务器的计算效率。
受电源和空间的限制,数据中心的应用需要加速。类似大数据分析、搜索、机器学习、 NFV、无线 4G/5G、内存中的数据库处理、视频分析和网络处理等的应用,都将受益于可以在不同的系统组件之间无缝移动数据的加速引擎。不管数据驻留于何处,也不需要复杂的编程环境,加速器缓存一致性(CCIX)都可以允许这些组件访问和处理这些数据,这将使空载和BITW(bump-in-the-wire)架构队列中的应用都能够利用现有的服务器生态系统和产品规格实现加速,从而降低加速系统的软件壁垒并降低总体拥有成本 (TCO)。
AMD公司院士兼I/O与集成电路技术副总裁Gerry Talbot表示:“AMD 大力支持开放标准的发展以进一步普及异构计算。通过与业界同行合作开发新的互连规格以加速性能,AMD 持续兑现其对开放的异构计算的承诺。”
ARM 服务器系统和生态系统总监Lakshmi Mandyam 表示:“‘一种方案适用于所有架构’的方式无法为数据中心工作负载带来亟需的性能和效率。受益于专用的处理和硬件空载,加速器缓存一致性(CCIX)通过简化软件开发和应用部署带来更优化的解决方案,以从而为数据中心客户提供更高的性能和价值。"
IBM 院士兼POWER开发副总裁Brad McCredie表示:“作为产业创新的催化剂,IBM Power Systems™ 最近展示了其对开放的总承诺,在后摩尔定律时代为客户创造成本和性能效益。IBM 致力于与领先的业界同行一起,扩大对开放一致性的努力,以帮助满足客户日益增长的认知需要。”
Mellanox 市场营销副总裁Gilad Shainer表示:“加速器缓存一致性(CCIX)在现有互联的基础上,实现更高的性能和连接能力,实际上为下一代 CPU-加速器-网络的标准界面发展铺平了道路。支持加速器缓存一致性(CCIX)标准的生态系统预计会更广泛,数据中心将能够优化其数据使用,实现世界领先的应用效率和灵活性。”
高通技术公司产品管理副总裁Vinay Ravuri表示:“高通技术公司非常兴奋能够在一个开放、跨ISA的平台上,开发带来高效率、高性能架构的新技术。未来的数据中心需要能够实现具有不同计算选择、加速和互连技术的开放架构,这是实现这一目标而迈出的一大步。”
赛灵思架构副总裁Gaurav Singh表示:“加速器缓存一致性(CCIX)将利用现有的服务器互连基础架构,并提供更高的带宽、低延迟和对共享内存的缓存一致性访问。这将极大地增进加速器的可用性,并提升数据中心平台的整体性能和效率。”
CCIX 的详细信息请访问 http://www.ccixconsortium.com/。
关于AMD
四十五年来,AMD引领了高性能运算、图形,以及可视化技术方面的创新,这些都是游戏、 临境感平台以及数据中心的基础。每时每刻,全球数百万的消费者、500强公司,以及尖端科学研究所都依靠AMD技术来改善他们的生活、工作以及娱乐。 AMD全球员工致力于打造伟大的产品,努力拓宽技术的极限。成就今日,启迪未来。更多信息,敬请访问www.amd.com(NASDAQ:AMD)。
好文章,需要你的鼓励
Anthropic周一发布了旗舰模型Opus 4.5,这是4.5系列的最后一个模型。新版本在编程、工具使用和问题解决等基准测试中表现出色,是首个在SWE-Bench验证测试中得分超过80%的模型。同时推出Claude for Chrome和Claude for Excel产品,分别面向不同用户群体。Opus 4.5还改进了长文本处理的内存管理,支持付费用户的"无限聊天"功能,并针对智能体应用场景进行了优化,将与OpenAI的GPT 5.1和谷歌的Gemini 3展开竞争。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
总部位于圣地亚哥的AI公司耐能发布新一代KL1140芯片,这是首款能在边缘端运行完整变换器网络的神经处理单元。该芯片可将大语言模型从云数据中心转移到便携式本地设备中,四颗芯片组合可实现类似GPU的性能,支持1200亿参数模型运行,功耗降低三分之一至一半,硬件成本减少十倍。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。