在关于AWS将采用AMD的芯片为自己最新的云实例提供动力的消息传出之后,今天AMD的股价上涨了近4%。
不仅如此,AMD还推出了被称为全球首款采用尖端7纳米架构的数据中心处理器和GPU产品。
AWS表示,这个新的云实例将运行在来自AMD Epyc产品线的定制CPU上,但没有透露具体型号。这些虚拟机分为两个系列,M5a和R5a,其成本比运行英特尔芯片的同类实例低10%。
M5a系列有六种尺寸,所有都是面向应用服务器这样的工作负载。最小配置提供了2个虚拟CPU和8GB内存,而高端m5a.24xlarge型号则包含96个虚拟CPU和386GB内存。
与此同时,R5a瞄准的是分析应用和其他数据密集型工作负载,这些工作负载需要比M5a更多的RAM空间。六种可用配置提供了与M5a相同数量的虚拟CPU,但内存容量更高:单个虚拟机可配置多达768GB的RAM。
Moor Insights&Strategy总裁兼首席分析师Patrick Moorhead表示:“全球最大的云服务提供商产品——Epyc是今天的新闻主角,这也是对Epyc实力的一次证明。AWS表示不需要更改软件或脚本就可以将成本降低10%,这一点令我印象深刻。”但Moorhead补充说,他认为英特尔仍然是AWS的主要芯片供应商。
与此同时,AMD在旧金山举行的一次活动中,宣布扩充了自己的数据中心产品组合,推出7纳米芯片,这将对英特尔在服务器市场的主导地位带来新的挑战。
在CPU方面,AMD预览了令人期待已久的Rome系列处理器,这是Epyc系列的最新演化版。这些芯片基于AMD最新的Zen 2.0架构,并承诺其性能是当前CPU的2倍。
多项重大技术革新带来了速度的新高,其中最值得注意的是,模片密度的增加使Rome系列每个处理器可提供多达64个核心,而英特尔最新的至强服务器CPU提供核心数为48个。同时,这也是第一个支持PCIe 4.0计算机网络标准的芯片,使得数据传输到CPU的速度是之前技术的2倍多。
即使Rome系列进行了这么多增强,但它仍然兼容为上一代Naples系列设计的服务器插槽相兼容。Moorhead认为,这种向后兼容性将有利于市场采用。
Moorhead说:“通过所有这些改进,AMD让Rome与Naples插槽兼容,这将有助于加速OEM、ODM以及最终客户的采用。如今AMD已经履行了两年前的承诺,所以我相信AMD也将能够以高质量按时交付产品。”
最后,AMD还公布了一对面向人工智能软件优化的7纳米数据中心GPU。高端Radeon Instinct MI60在以双精度浮点格式处理数据时,峰值速度为7.4 teraflops。
在今天的活动中,AMD还进行了一项内部测试,显示MI60可以运行目前流行的Resnet-50图像处理AI,比目前的14纳米GPU快2.8倍。在另一个被称为DGEMM的基准测试中,该芯片的性能提高了8.8倍。
AMD将把MI60与M50一起推向市场,M50是一款更便宜的GPU,在处理双精度浮点值时峰值性能为6.7 teraflops。与新的Ryzen处理器一样,这些芯片支持PCIe 4.0,每秒可以接收高达1TB的数据。
好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。