在关于AWS将采用AMD的芯片为自己最新的云实例提供动力的消息传出之后,今天AMD的股价上涨了近4%。
不仅如此,AMD还推出了被称为全球首款采用尖端7纳米架构的数据中心处理器和GPU产品。
AWS表示,这个新的云实例将运行在来自AMD Epyc产品线的定制CPU上,但没有透露具体型号。这些虚拟机分为两个系列,M5a和R5a,其成本比运行英特尔芯片的同类实例低10%。
M5a系列有六种尺寸,所有都是面向应用服务器这样的工作负载。最小配置提供了2个虚拟CPU和8GB内存,而高端m5a.24xlarge型号则包含96个虚拟CPU和386GB内存。
与此同时,R5a瞄准的是分析应用和其他数据密集型工作负载,这些工作负载需要比M5a更多的RAM空间。六种可用配置提供了与M5a相同数量的虚拟CPU,但内存容量更高:单个虚拟机可配置多达768GB的RAM。
Moor Insights&Strategy总裁兼首席分析师Patrick Moorhead表示:“全球最大的云服务提供商产品——Epyc是今天的新闻主角,这也是对Epyc实力的一次证明。AWS表示不需要更改软件或脚本就可以将成本降低10%,这一点令我印象深刻。”但Moorhead补充说,他认为英特尔仍然是AWS的主要芯片供应商。
与此同时,AMD在旧金山举行的一次活动中,宣布扩充了自己的数据中心产品组合,推出7纳米芯片,这将对英特尔在服务器市场的主导地位带来新的挑战。
在CPU方面,AMD预览了令人期待已久的Rome系列处理器,这是Epyc系列的最新演化版。这些芯片基于AMD最新的Zen 2.0架构,并承诺其性能是当前CPU的2倍。
多项重大技术革新带来了速度的新高,其中最值得注意的是,模片密度的增加使Rome系列每个处理器可提供多达64个核心,而英特尔最新的至强服务器CPU提供核心数为48个。同时,这也是第一个支持PCIe 4.0计算机网络标准的芯片,使得数据传输到CPU的速度是之前技术的2倍多。
即使Rome系列进行了这么多增强,但它仍然兼容为上一代Naples系列设计的服务器插槽相兼容。Moorhead认为,这种向后兼容性将有利于市场采用。
Moorhead说:“通过所有这些改进,AMD让Rome与Naples插槽兼容,这将有助于加速OEM、ODM以及最终客户的采用。如今AMD已经履行了两年前的承诺,所以我相信AMD也将能够以高质量按时交付产品。”
最后,AMD还公布了一对面向人工智能软件优化的7纳米数据中心GPU。高端Radeon Instinct MI60在以双精度浮点格式处理数据时,峰值速度为7.4 teraflops。
在今天的活动中,AMD还进行了一项内部测试,显示MI60可以运行目前流行的Resnet-50图像处理AI,比目前的14纳米GPU快2.8倍。在另一个被称为DGEMM的基准测试中,该芯片的性能提高了8.8倍。
AMD将把MI60与M50一起推向市场,M50是一款更便宜的GPU,在处理双精度浮点值时峰值性能为6.7 teraflops。与新的Ryzen处理器一样,这些芯片支持PCIe 4.0,每秒可以接收高达1TB的数据。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。