领导AMD芯片开发部门的高管Jack Huynh在今天发表的 Tom's Hardware 采访中透露了这一计划。
AMD提供两类显卡。第一类面向企业市场,使用的是名为CDNA 3的架构。该架构经过优化,可运行人工智能软件,尤其是大型语言模型。
人工智能模型在做出决策时会进行一些计算,其中涉及一些值为零的数据点。CDNA 3 可以将这些数据压缩成更紧凑的形式,从而减少GPU处理能力的使用,加快计算速度。该架构还包括其他几项旨在加快人工智能工作负载的优化。
反过来,AMD消费级GPU的设计针对的是电子游戏而非LLM,它们采用了名为RDNA 3的架构。该设计有别于CNDA 3的一个特点是它能更好地支持光线追踪技术,这是许多电子游戏用来渲染光影效果的一种技术。
在今天的采访中,Huynh透露AMD计划将RDNA和CDNA合并为一个芯片架构。这一未来技术将成为公司所有GPU的基础。他列举了决定统一设计的三个主要原因。
第一个原因是,开发一种而不是两种GPU架构将使 AMD的工程部门的运作更有效率。Huynh表示,改变方向背后的另一个因素是,该公司消费级GPU的架构RDNA有一定的设计限制。这些限制使得AMD的工程师在升级该架构的内存组件时面临挑战。
Huynh表示,芯片架构统一也将使第三方开发者受益。为一种芯片架构优化应用比为两种架构优化应用更简单,这将减轻软件团队的工作。
Huynh 还透露了AMD在高端消费级 GPU 市场的最新计划。该市场目前的领跑者是竞争对手英伟达,英伟达估计占芯片出货量的88%。AMD占据剩下的12%。
Huynh表示,AMD今后将优先考虑低成本显卡。该公司计划先扩大在这一市场的份额,然后再重新聚焦与英伟达的高端消费级GPU竞争。Huynh解释说,这一决定与开发人员的采用状况有关。
消费级GPU的需求水平在很大程度上受到针对其进行了运行优化的电子游戏数量的影响。AMD相信,提高其在低端 GPU 市场的份额将说服更多的开发商为其芯片优化游戏。一旦建立起这样的市场基础,AMD就能更好地在高端 GPU 领域与英伟达展开竞争。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。