ZDNet至顶网服务器频道 03月02日 新闻消息:近日AMD公司在著名的国际固态电路会议(ISSCC)上透露,即将推出的专为笔记本和低功耗桌面电脑设计的代号为“Carrizo”的A系列加速处理器(APU)将带来多项全新的领先电源管理技术,并通过全新“挖掘机”x86 CPU核心和新一代AMD Radeon™ GPU核心带来大幅的性能提升。通过使用真正的系统级芯片(SoC)设计,AMD预计Carrizo x86核心的功耗将降低40%,同时CPU、显卡以及多媒体性能将比上一代APU大幅提升。
AMD公司院士及此次ISSCC会上AMD演讲内容的共同撰写者Sam Naffziger表示:“作为AMD持续创造伟大产品的一部分,我们设计的拥有领先功效及优化性能的Carrizo将带来主流AMD APU有史以来最佳的性能功耗比。自现代微处理器诞生以来,计算性能和能效取得了显著进步。然而,新的制程工艺为能效带来提升的速度已经放缓,因此有必要开创一个通过其它方式来提高处理器性能和效率的时代。AMD一直奉行通过异构系统架构(HSA)和专有电源管理技术来推动性能和效率继续增长。即将推出的Carrizo APU是AMD向25x20节能目标迈出的重要一步,其包含了丰富的新功能,并将在今后AMD的全线产品中得到应用。”
在ISSCC上公开的全新Carrizo细节包括:
◆与上代“Kaveri”晶片面积几乎相同,但晶体管数量增加29%;
◆全新“挖掘机”x86核心的每时钟周期指令数得到提升,功耗降低40%;
◆全新Radeon GPU核心配备专用电源;
◆专用的片上H.265视频解码;
◆高达百分比两位数的性能和电池续航时间提升;
◆首次在AMD高性能移动式APU上集成南桥
AMD公司院士兼设计工程师Kathy Wilcox在ISSCC会议的AMD环节上发表题为“针对能效和面积效率进行优化的28nm x86 APU”的演讲,内容涵盖了Carrizo APU的技术、实施和电源管理特性。
新的高密度设计库使AMD能够将比上一代Kaveri APU多29%的晶体管(31亿个)放在与其面积几乎相同的Carrizo上。密度的增加为把显卡、多媒体卸载以及“南桥”系统控制器集成在单一芯片上提供了更大的空间。对多媒体的支持也得到增强,包括全新的高性能H.265视频标准,视频压缩引擎也增加到上一代的两倍。硬件内置H.265将支持真正的4K分辨率,有助于延长电池续航,并在观看兼容视频流时减少对带宽的需求。
额外的晶体管也让Carrizo成为业内第一款设计符合由HSA基金会开发的HSA 1.0规范的处理器。HSA让编程加速器(如GPU)变得更为简单,可以理想地以较低的功耗实现更高的应用性能。
HSA在设计上的最大优势是Carrizo内部的异构统一寻址(hUMA)。CPU和GPU可以通过hUMA实现内存共享,两者均可访问所有平台的内存,并将数据分配给系统内存空间的任意位置。这种存储一致性架构大大减少了完成多项任务所需的指令数量,从而使性能和能效得到提升。
多项全新节能技术首次在Carrizo APU上应用。为了解决瞬变电压下降问题(也被称作下垂),传统的微处理器设计提供大约10%到15%的额外电压以确保处理器始终拥有适当的电压。但是从能耗的角度来讲,过电压的成本很高,因为它浪费电力的比率,是与电压增加的平方成正比的[1 Grenat, Aaron et al, 国际固态电路2014 技术论文摘选106-107页](即10%的过电压意味着大约20%的电力浪费)。
AMD已经研发了多项技术来优化电压。最新的处理器可在大约数纳秒或十亿分之一秒内对平均电压和瞬变电压下降进行比较。从Carrizo APU开始,这项电压自适应操作功能将在CPU和GPU上同时启用。由于频率的调整是在纳秒内完成,计算性能几乎不受影响,而GPU功耗降低达到10%,以及CPU功耗降低高达19%。
另一项在Carrizo上首次得到应用的电源技术,被称作自适应电压和频率调节(AVFS)。除了传统温度传感器和功率传感器,这项技术还采用了独特的专利技术:硅速度能力传感器和电压传感器。速度和电压传感器使每个APU可以适应其特定的硅特性、平台行为和操作环境。通过针对这些参数进行实时调整,AVFS可降低多达30%的功耗。
除了通过减少核心面积来帮助降低CPU的功耗之外,AMD优化的28nm制程技术带来更佳的电源效率,并调谐GPU执行以在功耗受限情况下达到最佳运行状态。在相同频率下,功耗比Kaveri显卡降低多达20%。结合以上创新,AMD能效创新的目标在于继续以已定型的、成本优化的28nm制程工艺,达到与提升制程工艺相似的节能效果。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。