今天,AMD宣布推出了三款Epyc服务器CPU,号称提供了“全球最高”的单核性能。
这几款CPU采用Epyc 7Fx2品牌,采用了AMD 7纳米Zen 2架构。根据型号的不同,每个芯片有8、16或24个核心,主频比上一代处理器高500兆赫。
主频的提纲并不是AMD号称性能赶超英特尔的唯一原因。AMD还扩展了CPU的L3缓存(一种板载内存),这一升级可以允许更多数据流入,从而加快处理速度。
AMD表示,由Epyc 7Fx2芯片驱动的服务器可以运行SQL数据库,每个核心的性能比竞争对手英特尔的芯片高17%。反过来,采用该性能的超融合基础架构设备在运行VMware工作负载时,速度可以提升47%。而对于超级计算机这样的高性能计算系统来说,有望实现最大幅度的速度提升:AMD承诺每个核心的速度提高94%,可满足计算流体动力学工作负载的需求。
除了让应用加快数据处理之外,性能的提升还有很多关键的实际优势。某些企业软件产品是按核心提供许可的,这意味着如果服务器中每个核心的速度提升了,那么就可以从软件投资中获得更高价值。
AMD表示,戴尔、HPE等数据中心厂商已经计划在即将推出的产品中采用Epyc 7Fx2,例如IBM正在通过自己的公有云提供这些处理器。
AMD现有服务器芯片采用的Zen 2核心体系结构,将升级为代号Milan的第三代设计,预计今年推出。AMD高管最近在给面向华尔街分析师的一次演讲中,详细介绍了Milan将采用一款7纳米处理器(例如Zen 2),但是会使用全新架构而不是对现有设计进行迭代改进。
展望未来,AMD计划在2022年推出一系列5纳米服务器CPU,长期发展路线中还包括一系列7纳米数据中心GPU和所谓的X3D技术,该技术将实现多个芯片的堆叠,从而创造一个大型3D处理器。
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
中科院联合字节跳动开发全新AI评测基准TreeBench,揭示当前最先进模型在复杂视觉推理上的重大缺陷。即使OpenAI o3也仅获得54.87%分数。研究团队同时提出TreeVGR训练方法,通过要求AI同时给出答案和精确定位,实现真正可追溯的视觉推理,为构建更透明可信的AI系统开辟新路径。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
PyVision是上海AI实验室开发的革命性视觉推理框架,让AI系统能够根据具体问题动态创造Python工具,而非依赖预设工具集。通过多轮交互机制,PyVision在多项基准测试中实现显著性能提升,其中在符号视觉任务上提升达31.1%。该框架展现了从"工具使用者"到"工具创造者"的AI能力跃迁,为通用人工智能的发展开辟了新路径。