AMD今天宣布推出用于数据中心的第二代EPYC处理芯片,并公布了包括谷歌和推特在内的知名大客户。
AMD的第二代AMD EPYC处理器采用合约制造商的新技术制造,可提供更好的性能,同时功耗低于上一代芯片。EPYC芯片采用最先进的7纳米工艺制造,具有多达64个“Zen 2”核心,这一点使其实现了创纪录的性能,同时在运行很多数据中心工作负载方面总拥有成本降低多达50%。
AMD总裁兼首席执行官Lisa Su在发布会主题演讲中表示:“今天,我们为现代数据中心设立了新的标准,多家企业、云和高性能计算新客户选择EPYC处理器来满足他们最苛刻的服务器计算需求,从而加速了我们领先服务器处理器的普及速度。”
在这次发布会上,AMD高管花了大量时间讨论第二代EPYC芯片的性能改进。例如他们声称EPYC芯片在Java应用工作负载方面的性能提高了83%,还强调了该芯片的“创纪录虚拟化性能”和在高性能计算工作负载中实现“创纪录的浮点性能”。
AMD方面补充说,EPYC在服务器工作负载每个核心每个时钟执行的指令增加了23%,而L3缓存多达上一代的4倍。
Moor Insights&Strategy分析师Patrick Moorhead表示,这款新芯片的推出对于AMD来说是一大进步,远远超出他的预期。
“AMD改进了第一代的大部分缺点,如单线程性能和核心扩展,并增加了新的RAS和安全功能,以及提升了多核心性能,”Moorhead说。
AMD在数据中心芯片领域的主要竞争对手是英特尔,近年来,两家厂商都越来越重视这些主要用于支持互联网服务的芯片,因为PC销售量一直在下滑。
Moorhead表示,他期待AMD在发布上一代芯片之后取得了一些收益之后,能够通过推出第二代EPYC芯片在与英特尔的竞争中取得优势。
他说:“AMD推出第一代EPYC的时候份额只有个位数的小幅增长,不过我预计AMD通过推出第二代EPYC能够在云服务提供商、企业和高性能计算领域获得拿下一些份额。企业不会大规模部署任何第一代产品。他们没有部署第一代EPYC,但他们将部署第二代EPYC。”
AMD可以充分利用这样一个事实:那就是英特尔是在它自己的工厂生产芯片,而不是依靠承包商,导致7纳米制造工艺落后于时间表,这些芯片预计最早要到2021年才会到货。
这也被认为是AMD能够撬动英特尔一些最大客户(包括谷歌)的原因之一。
谷歌高管出现在AMD的这次发布会上,表示谷歌已经部署了AMD的第二代EPYC处理器,用于处理部分云数据中心的特定工作负载。今年晚些时候,谷歌还将采用这款芯片来支持针对Google Cloud Compute Engine服务的“通用型”设备。
“谷歌是个有意思的客户,已经明确表示如果能够看到更好的性能和价格就会有更大投入。谷歌曾经是AMD Opteron的最大客户。对此我会密切关注。”
推特(Twitter)也成为AMD的一大客户。这家社交媒体公司表示。将在今年晚些时候在其数据中心内部署AMD EPYC芯片,预计这将使总体拥有成本降低25%。
微软也宣布推出了针对基于EPYC芯片的通用设备的新Azure虚拟机预览。此外,微软还还宣布了云远程桌面和基于新架构高性能计算工作负载的有限预览。
数据中心硬件厂商HPE和联想也宣布推出基于EPYC芯片的新平台,包括HPE ProLiant DL385和ProLiant DL325服务器,以及联想的ThinkSystem SR655和SR635服务器。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。