ZDNet至顶网服务器频道 03月02日 新闻消息:近日AMD公司在著名的国际固态电路会议(ISSCC)上透露,即将推出的专为笔记本和低功耗桌面电脑设计的代号为“Carrizo”的A系列加速处理器(APU)将带来多项全新的领先电源管理技术,并通过全新“挖掘机”x86 CPU核心和新一代AMD Radeon™ GPU核心带来大幅的性能提升。通过使用真正的系统级芯片(SoC)设计,AMD预计Carrizo x86核心的功耗将降低40%,同时CPU、显卡以及多媒体性能将比上一代APU大幅提升。
AMD公司院士及此次ISSCC会上AMD演讲内容的共同撰写者Sam Naffziger表示:“作为AMD持续创造伟大产品的一部分,我们设计的拥有领先功效及优化性能的Carrizo将带来主流AMD APU有史以来最佳的性能功耗比。自现代微处理器诞生以来,计算性能和能效取得了显著进步。然而,新的制程工艺为能效带来提升的速度已经放缓,因此有必要开创一个通过其它方式来提高处理器性能和效率的时代。AMD一直奉行通过异构系统架构(HSA)和专有电源管理技术来推动性能和效率继续增长。即将推出的Carrizo APU是AMD向25x20节能目标迈出的重要一步,其包含了丰富的新功能,并将在今后AMD的全线产品中得到应用。”
在ISSCC上公开的全新Carrizo细节包括:
◆与上代“Kaveri”晶片面积几乎相同,但晶体管数量增加29%;
◆全新“挖掘机”x86核心的每时钟周期指令数得到提升,功耗降低40%;
◆全新Radeon GPU核心配备专用电源;
◆专用的片上H.265视频解码;
◆高达百分比两位数的性能和电池续航时间提升;
◆首次在AMD高性能移动式APU上集成南桥
AMD公司院士兼设计工程师Kathy Wilcox在ISSCC会议的AMD环节上发表题为“针对能效和面积效率进行优化的28nm x86 APU”的演讲,内容涵盖了Carrizo APU的技术、实施和电源管理特性。
新的高密度设计库使AMD能够将比上一代Kaveri APU多29%的晶体管(31亿个)放在与其面积几乎相同的Carrizo上。密度的增加为把显卡、多媒体卸载以及“南桥”系统控制器集成在单一芯片上提供了更大的空间。对多媒体的支持也得到增强,包括全新的高性能H.265视频标准,视频压缩引擎也增加到上一代的两倍。硬件内置H.265将支持真正的4K分辨率,有助于延长电池续航,并在观看兼容视频流时减少对带宽的需求。
额外的晶体管也让Carrizo成为业内第一款设计符合由HSA基金会开发的HSA 1.0规范的处理器。HSA让编程加速器(如GPU)变得更为简单,可以理想地以较低的功耗实现更高的应用性能。
HSA在设计上的最大优势是Carrizo内部的异构统一寻址(hUMA)。CPU和GPU可以通过hUMA实现内存共享,两者均可访问所有平台的内存,并将数据分配给系统内存空间的任意位置。这种存储一致性架构大大减少了完成多项任务所需的指令数量,从而使性能和能效得到提升。
多项全新节能技术首次在Carrizo APU上应用。为了解决瞬变电压下降问题(也被称作下垂),传统的微处理器设计提供大约10%到15%的额外电压以确保处理器始终拥有适当的电压。但是从能耗的角度来讲,过电压的成本很高,因为它浪费电力的比率,是与电压增加的平方成正比的[1 Grenat, Aaron et al, 国际固态电路2014 技术论文摘选106-107页](即10%的过电压意味着大约20%的电力浪费)。
AMD已经研发了多项技术来优化电压。最新的处理器可在大约数纳秒或十亿分之一秒内对平均电压和瞬变电压下降进行比较。从Carrizo APU开始,这项电压自适应操作功能将在CPU和GPU上同时启用。由于频率的调整是在纳秒内完成,计算性能几乎不受影响,而GPU功耗降低达到10%,以及CPU功耗降低高达19%。
另一项在Carrizo上首次得到应用的电源技术,被称作自适应电压和频率调节(AVFS)。除了传统温度传感器和功率传感器,这项技术还采用了独特的专利技术:硅速度能力传感器和电压传感器。速度和电压传感器使每个APU可以适应其特定的硅特性、平台行为和操作环境。通过针对这些参数进行实时调整,AVFS可降低多达30%的功耗。
除了通过减少核心面积来帮助降低CPU的功耗之外,AMD优化的28nm制程技术带来更佳的电源效率,并调谐GPU执行以在功耗受限情况下达到最佳运行状态。在相同频率下,功耗比Kaveri显卡降低多达20%。结合以上创新,AMD能效创新的目标在于继续以已定型的、成本优化的28nm制程工艺,达到与提升制程工艺相似的节能效果。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。