今天,AMD宣布推出了三款Epyc服务器CPU,号称提供了“全球最高”的单核性能。
这几款CPU采用Epyc 7Fx2品牌,采用了AMD 7纳米Zen 2架构。根据型号的不同,每个芯片有8、16或24个核心,主频比上一代处理器高500兆赫。
主频的提纲并不是AMD号称性能赶超英特尔的唯一原因。AMD还扩展了CPU的L3缓存(一种板载内存),这一升级可以允许更多数据流入,从而加快处理速度。
AMD表示,由Epyc 7Fx2芯片驱动的服务器可以运行SQL数据库,每个核心的性能比竞争对手英特尔的芯片高17%。反过来,采用该性能的超融合基础架构设备在运行VMware工作负载时,速度可以提升47%。而对于超级计算机这样的高性能计算系统来说,有望实现最大幅度的速度提升:AMD承诺每个核心的速度提高94%,可满足计算流体动力学工作负载的需求。
除了让应用加快数据处理之外,性能的提升还有很多关键的实际优势。某些企业软件产品是按核心提供许可的,这意味着如果服务器中每个核心的速度提升了,那么就可以从软件投资中获得更高价值。
AMD表示,戴尔、HPE等数据中心厂商已经计划在即将推出的产品中采用Epyc 7Fx2,例如IBM正在通过自己的公有云提供这些处理器。
AMD现有服务器芯片采用的Zen 2核心体系结构,将升级为代号Milan的第三代设计,预计今年推出。AMD高管最近在给面向华尔街分析师的一次演讲中,详细介绍了Milan将采用一款7纳米处理器(例如Zen 2),但是会使用全新架构而不是对现有设计进行迭代改进。
展望未来,AMD计划在2022年推出一系列5纳米服务器CPU,长期发展路线中还包括一系列7纳米数据中心GPU和所谓的X3D技术,该技术将实现多个芯片的堆叠,从而创造一个大型3D处理器。
好文章,需要你的鼓励
OpenAI 按用户需求在 ChatGPT 推出全新 GPT-4.1 及其 mini 与 nano 版本,专注提升编程、指令理解与长文本处理能力,免费及付费用户均可体验。
谷歌 DeepMind 推出的 AlphaEvolve AI 智能体,利用多轮反馈机制优化编程和数学任务,已在数据中心与芯片设计中提效,并重现数学问题的先进解法。
DeepMind 推出的 AI 系统 AlphaEvolve 利用自动评估机制解决数学与科学问题,在数学测试和 Google 数据中心优化中提升效率。虽非颠覆性革新,却能帮助专家腾出精力应对更重要任务。
科技公司 Stability AI 同芯片厂 Arm 合作推出“Stable Audio Open Small”,这是一款基于无版权音库训练、可在智能手机上迅速生成短音频样本的立体声音频 AI 模型,虽仅支持英文提示并存在部分局限,但对研究者和小型企业免费开放。