AMD今天宣布推出用于数据中心的第二代EPYC处理芯片,并公布了包括谷歌和推特在内的知名大客户。
AMD的第二代AMD EPYC处理器采用合约制造商的新技术制造,可提供更好的性能,同时功耗低于上一代芯片。EPYC芯片采用最先进的7纳米工艺制造,具有多达64个“Zen 2”核心,这一点使其实现了创纪录的性能,同时在运行很多数据中心工作负载方面总拥有成本降低多达50%。
AMD总裁兼首席执行官Lisa Su在发布会主题演讲中表示:“今天,我们为现代数据中心设立了新的标准,多家企业、云和高性能计算新客户选择EPYC处理器来满足他们最苛刻的服务器计算需求,从而加速了我们领先服务器处理器的普及速度。”
在这次发布会上,AMD高管花了大量时间讨论第二代EPYC芯片的性能改进。例如他们声称EPYC芯片在Java应用工作负载方面的性能提高了83%,还强调了该芯片的“创纪录虚拟化性能”和在高性能计算工作负载中实现“创纪录的浮点性能”。
AMD方面补充说,EPYC在服务器工作负载每个核心每个时钟执行的指令增加了23%,而L3缓存多达上一代的4倍。
Moor Insights&Strategy分析师Patrick Moorhead表示,这款新芯片的推出对于AMD来说是一大进步,远远超出他的预期。
“AMD改进了第一代的大部分缺点,如单线程性能和核心扩展,并增加了新的RAS和安全功能,以及提升了多核心性能,”Moorhead说。
AMD在数据中心芯片领域的主要竞争对手是英特尔,近年来,两家厂商都越来越重视这些主要用于支持互联网服务的芯片,因为PC销售量一直在下滑。
Moorhead表示,他期待AMD在发布上一代芯片之后取得了一些收益之后,能够通过推出第二代EPYC芯片在与英特尔的竞争中取得优势。
他说:“AMD推出第一代EPYC的时候份额只有个位数的小幅增长,不过我预计AMD通过推出第二代EPYC能够在云服务提供商、企业和高性能计算领域获得拿下一些份额。企业不会大规模部署任何第一代产品。他们没有部署第一代EPYC,但他们将部署第二代EPYC。”
AMD可以充分利用这样一个事实:那就是英特尔是在它自己的工厂生产芯片,而不是依靠承包商,导致7纳米制造工艺落后于时间表,这些芯片预计最早要到2021年才会到货。
这也被认为是AMD能够撬动英特尔一些最大客户(包括谷歌)的原因之一。
谷歌高管出现在AMD的这次发布会上,表示谷歌已经部署了AMD的第二代EPYC处理器,用于处理部分云数据中心的特定工作负载。今年晚些时候,谷歌还将采用这款芯片来支持针对Google Cloud Compute Engine服务的“通用型”设备。
“谷歌是个有意思的客户,已经明确表示如果能够看到更好的性能和价格就会有更大投入。谷歌曾经是AMD Opteron的最大客户。对此我会密切关注。”
推特(Twitter)也成为AMD的一大客户。这家社交媒体公司表示。将在今年晚些时候在其数据中心内部署AMD EPYC芯片,预计这将使总体拥有成本降低25%。
微软也宣布推出了针对基于EPYC芯片的通用设备的新Azure虚拟机预览。此外,微软还还宣布了云远程桌面和基于新架构高性能计算工作负载的有限预览。
数据中心硬件厂商HPE和联想也宣布推出基于EPYC芯片的新平台,包括HPE ProLiant DL385和ProLiant DL325服务器,以及联想的ThinkSystem SR655和SR635服务器。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。