领导AMD芯片开发部门的高管Jack Huynh在今天发表的 Tom's Hardware 采访中透露了这一计划。
AMD提供两类显卡。第一类面向企业市场,使用的是名为CDNA 3的架构。该架构经过优化,可运行人工智能软件,尤其是大型语言模型。
人工智能模型在做出决策时会进行一些计算,其中涉及一些值为零的数据点。CDNA 3 可以将这些数据压缩成更紧凑的形式,从而减少GPU处理能力的使用,加快计算速度。该架构还包括其他几项旨在加快人工智能工作负载的优化。
反过来,AMD消费级GPU的设计针对的是电子游戏而非LLM,它们采用了名为RDNA 3的架构。该设计有别于CNDA 3的一个特点是它能更好地支持光线追踪技术,这是许多电子游戏用来渲染光影效果的一种技术。
在今天的采访中,Huynh透露AMD计划将RDNA和CDNA合并为一个芯片架构。这一未来技术将成为公司所有GPU的基础。他列举了决定统一设计的三个主要原因。
第一个原因是,开发一种而不是两种GPU架构将使 AMD的工程部门的运作更有效率。Huynh表示,改变方向背后的另一个因素是,该公司消费级GPU的架构RDNA有一定的设计限制。这些限制使得AMD的工程师在升级该架构的内存组件时面临挑战。
Huynh表示,芯片架构统一也将使第三方开发者受益。为一种芯片架构优化应用比为两种架构优化应用更简单,这将减轻软件团队的工作。
Huynh 还透露了AMD在高端消费级 GPU 市场的最新计划。该市场目前的领跑者是竞争对手英伟达,英伟达估计占芯片出货量的88%。AMD占据剩下的12%。
Huynh表示,AMD今后将优先考虑低成本显卡。该公司计划先扩大在这一市场的份额,然后再重新聚焦与英伟达的高端消费级GPU竞争。Huynh解释说,这一决定与开发人员的采用状况有关。
消费级GPU的需求水平在很大程度上受到针对其进行了运行优化的电子游戏数量的影响。AMD相信,提高其在低端 GPU 市场的份额将说服更多的开发商为其芯片优化游戏。一旦建立起这样的市场基础,AMD就能更好地在高端 GPU 领域与英伟达展开竞争。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。