领导AMD芯片开发部门的高管Jack Huynh在今天发表的 Tom's Hardware 采访中透露了这一计划。
AMD提供两类显卡。第一类面向企业市场,使用的是名为CDNA 3的架构。该架构经过优化,可运行人工智能软件,尤其是大型语言模型。
人工智能模型在做出决策时会进行一些计算,其中涉及一些值为零的数据点。CDNA 3 可以将这些数据压缩成更紧凑的形式,从而减少GPU处理能力的使用,加快计算速度。该架构还包括其他几项旨在加快人工智能工作负载的优化。
反过来,AMD消费级GPU的设计针对的是电子游戏而非LLM,它们采用了名为RDNA 3的架构。该设计有别于CNDA 3的一个特点是它能更好地支持光线追踪技术,这是许多电子游戏用来渲染光影效果的一种技术。
在今天的采访中,Huynh透露AMD计划将RDNA和CDNA合并为一个芯片架构。这一未来技术将成为公司所有GPU的基础。他列举了决定统一设计的三个主要原因。
第一个原因是,开发一种而不是两种GPU架构将使 AMD的工程部门的运作更有效率。Huynh表示,改变方向背后的另一个因素是,该公司消费级GPU的架构RDNA有一定的设计限制。这些限制使得AMD的工程师在升级该架构的内存组件时面临挑战。
Huynh表示,芯片架构统一也将使第三方开发者受益。为一种芯片架构优化应用比为两种架构优化应用更简单,这将减轻软件团队的工作。
Huynh 还透露了AMD在高端消费级 GPU 市场的最新计划。该市场目前的领跑者是竞争对手英伟达,英伟达估计占芯片出货量的88%。AMD占据剩下的12%。
Huynh表示,AMD今后将优先考虑低成本显卡。该公司计划先扩大在这一市场的份额,然后再重新聚焦与英伟达的高端消费级GPU竞争。Huynh解释说,这一决定与开发人员的采用状况有关。
消费级GPU的需求水平在很大程度上受到针对其进行了运行优化的电子游戏数量的影响。AMD相信,提高其在低端 GPU 市场的份额将说服更多的开发商为其芯片优化游戏。一旦建立起这样的市场基础,AMD就能更好地在高端 GPU 领域与英伟达展开竞争。
好文章,需要你的鼓励
Arelion升级其斯堪的纳维亚网络,连接超大规模数据中心以支持该地区蓬勃发展的AI市场。该网络基于1.6Tbps波长和可扩展400G相干可插拔光学技术,在奥斯陆、斯德哥尔摩和哥本哈根之间构建AI"超级高速公路"。升级将为企业客户提供增强的全球互联网骨干网接入和多样化连接服务。预计2025年第二季度末完成,并计划在2025年剩余时间及2026年继续投资。
这项由香港科技大学领导的研究首次建立了大语言模型安全守护栏的系统性评估框架。研究团队对13种主流守护栏进行了全面测试,提出了六维分类体系和SEU三维评估标准,揭示了不同守护栏在安全性、效率和实用性方面的权衡关系,为AI安全防护技术的选择和部署提供了科学指导。
CloudBees首席执行官Anuj Kapur表示,AI可能重新测试DevOps的基础假设,但警告不要为追求效率而创建黑盒代码。他指出,一些因担心错失机会而匆忙采用AI生成代码的客户正开始放缓步伐,变得更加谨慎。Kapur认为,将整代软件外包给提示工程将创建非人类生成的黑盒代码,虽然效率高但质量、测试覆盖率和漏洞问题值得担忧。
南加州大学研究团队开发出一种名为PILS的新技术,能够通过分析AI模型输出时的概率信息来破解隐藏的系统指令。这种方法通过观察AI生成文本过程中多个步骤的"思考轨迹",将隐藏提示的恢复成功率提高了2-3.5倍。研究发现AI模型的概率输出存在于低维空间中,可以用数学方法进行压缩和逆向分析。这项发现对AI安全具有重要影响,揭示了当前依赖隐藏指令的安全机制可能存在漏洞,为AI安全防护提出了新挑战。