今天,AMD宣布推出了三款Epyc服务器CPU,号称提供了“全球最高”的单核性能。
这几款CPU采用Epyc 7Fx2品牌,采用了AMD 7纳米Zen 2架构。根据型号的不同,每个芯片有8、16或24个核心,主频比上一代处理器高500兆赫。
主频的提纲并不是AMD号称性能赶超英特尔的唯一原因。AMD还扩展了CPU的L3缓存(一种板载内存),这一升级可以允许更多数据流入,从而加快处理速度。
AMD表示,由Epyc 7Fx2芯片驱动的服务器可以运行SQL数据库,每个核心的性能比竞争对手英特尔的芯片高17%。反过来,采用该性能的超融合基础架构设备在运行VMware工作负载时,速度可以提升47%。而对于超级计算机这样的高性能计算系统来说,有望实现最大幅度的速度提升:AMD承诺每个核心的速度提高94%,可满足计算流体动力学工作负载的需求。
除了让应用加快数据处理之外,性能的提升还有很多关键的实际优势。某些企业软件产品是按核心提供许可的,这意味着如果服务器中每个核心的速度提升了,那么就可以从软件投资中获得更高价值。
AMD表示,戴尔、HPE等数据中心厂商已经计划在即将推出的产品中采用Epyc 7Fx2,例如IBM正在通过自己的公有云提供这些处理器。
AMD现有服务器芯片采用的Zen 2核心体系结构,将升级为代号Milan的第三代设计,预计今年推出。AMD高管最近在给面向华尔街分析师的一次演讲中,详细介绍了Milan将采用一款7纳米处理器(例如Zen 2),但是会使用全新架构而不是对现有设计进行迭代改进。
展望未来,AMD计划在2022年推出一系列5纳米服务器CPU,长期发展路线中还包括一系列7纳米数据中心GPU和所谓的X3D技术,该技术将实现多个芯片的堆叠,从而创造一个大型3D处理器。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。