在关于AWS将采用AMD的芯片为自己最新的云实例提供动力的消息传出之后,今天AMD的股价上涨了近4%。
不仅如此,AMD还推出了被称为全球首款采用尖端7纳米架构的数据中心处理器和GPU产品。
AWS表示,这个新的云实例将运行在来自AMD Epyc产品线的定制CPU上,但没有透露具体型号。这些虚拟机分为两个系列,M5a和R5a,其成本比运行英特尔芯片的同类实例低10%。
M5a系列有六种尺寸,所有都是面向应用服务器这样的工作负载。最小配置提供了2个虚拟CPU和8GB内存,而高端m5a.24xlarge型号则包含96个虚拟CPU和386GB内存。
与此同时,R5a瞄准的是分析应用和其他数据密集型工作负载,这些工作负载需要比M5a更多的RAM空间。六种可用配置提供了与M5a相同数量的虚拟CPU,但内存容量更高:单个虚拟机可配置多达768GB的RAM。
Moor Insights&Strategy总裁兼首席分析师Patrick Moorhead表示:“全球最大的云服务提供商产品——Epyc是今天的新闻主角,这也是对Epyc实力的一次证明。AWS表示不需要更改软件或脚本就可以将成本降低10%,这一点令我印象深刻。”但Moorhead补充说,他认为英特尔仍然是AWS的主要芯片供应商。
与此同时,AMD在旧金山举行的一次活动中,宣布扩充了自己的数据中心产品组合,推出7纳米芯片,这将对英特尔在服务器市场的主导地位带来新的挑战。
在CPU方面,AMD预览了令人期待已久的Rome系列处理器,这是Epyc系列的最新演化版。这些芯片基于AMD最新的Zen 2.0架构,并承诺其性能是当前CPU的2倍。
多项重大技术革新带来了速度的新高,其中最值得注意的是,模片密度的增加使Rome系列每个处理器可提供多达64个核心,而英特尔最新的至强服务器CPU提供核心数为48个。同时,这也是第一个支持PCIe 4.0计算机网络标准的芯片,使得数据传输到CPU的速度是之前技术的2倍多。
即使Rome系列进行了这么多增强,但它仍然兼容为上一代Naples系列设计的服务器插槽相兼容。Moorhead认为,这种向后兼容性将有利于市场采用。
Moorhead说:“通过所有这些改进,AMD让Rome与Naples插槽兼容,这将有助于加速OEM、ODM以及最终客户的采用。如今AMD已经履行了两年前的承诺,所以我相信AMD也将能够以高质量按时交付产品。”
最后,AMD还公布了一对面向人工智能软件优化的7纳米数据中心GPU。高端Radeon Instinct MI60在以双精度浮点格式处理数据时,峰值速度为7.4 teraflops。
在今天的活动中,AMD还进行了一项内部测试,显示MI60可以运行目前流行的Resnet-50图像处理AI,比目前的14纳米GPU快2.8倍。在另一个被称为DGEMM的基准测试中,该芯片的性能提高了8.8倍。
AMD将把MI60与M50一起推向市场,M50是一款更便宜的GPU,在处理双精度浮点值时峰值性能为6.7 teraflops。与新的Ryzen处理器一样,这些芯片支持PCIe 4.0,每秒可以接收高达1TB的数据。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。