AMD今日宣布推出全新AMD嵌入式R系列SoC处理器,为一系列特定的嵌入式应用市场需求,如数字标牌、零售标牌、医疗成像、电子游戏、媒体存储以及通讯和网络连接提供了领先的性能表现。专为高要求嵌入式需求所设计的全新AMD嵌入式R系列SoC处理器,采用了最新的AMD 64位x86 CPU核心(代号为“挖掘机”),第三代GCN显卡架构,并采用了先进的电源管理技术,从而降低功耗。综上,AMD的创新技术为设计下一代产品提供了业界领先的图形性能和关键的嵌入式特性。
单芯片SoC架构不仅能让AMD的客户和许多第三方平台开发商实现简洁、小规格的电路板和系统设计,还能提供卓越的图形和多媒体性能,包括4K视频回放的硬件解码加速。凭借完善的套件外围支持和界面选项、业界首个通过异构系统架构(HSA)1.0标准认证的高端AMD Radeon显卡,以及支持最新的DDR4内存,全新AMD R系列SoC能够满足不同市场和客户的需求。
TIRIAS Research首席分析师Jim McGregor表示:“AMD持续推动着x86嵌入式平台的发展,这为其带来了客户和应用的不断增长。随着嵌入式应用的不断增多,市场对临境感图像、高清显示及并行计算有着强劲需求。在这些方面,AMD嵌入式R系列SoC提供了一种极具吸引力的解决方案。”
AMD全球副总裁兼嵌入式解决方案事业部总经理Scott Aylor表示:“随着临境感体验的快速发展,特别是可视化和并行计算的迅速成长,嵌入式领域需要一个高性能、低功耗,并且拥有卓越的图形和计算能力的架构。全新AMD嵌入式R系列SoC能够满足各类行业的需求,包括数字标牌、零售标牌、医疗成像、电子游戏、媒体存储以及通讯和网络连接。这一平台为下一代高性能低功耗的嵌入式设计提供了强有力的价值定位。”
业界领先的显卡
凭借最新一代AMD Radeon显卡以及芯片上集成的最新多媒体技术,AMD嵌入式R系列SoC提供了更强的GPU性能,并支持完整4K解码所需的高效视频编码(HEVC)及DirectX 12。相较于第二代AMD嵌入式R系列APU,全新AMD嵌入式R系列SoC的GPU性能提升了22%。集成AMD Radeon显卡的规格参数包括:
• 高达八个计算单位及两个渲染区块
• 高达800MHz的GPU时钟频率,实现每秒8190亿次的浮点运算次数
• 支持DirectX 12
支持异构系统架构(HSA)
机器学习、医疗成像、数字标牌等行业的客户常常需要执行计算密集型的并行处理算法。作为一个标准化的平台设计,HSA能够释放GPU作为并行计算引擎的性能和能效。它让开发者能够更轻松高效地在当今的SoC中运用硬件资源,从而让应用在众多计算平台上以更低功耗实现更快运行。AMD嵌入式R系列平台全面支持HSA,平衡了CPU和GPU的性能。通过异构统一内存架构(hUMA),降低延迟并最大化CPU和GPU的内存访问,从而提升性能。
专为嵌入式设计
AMD嵌入式R系列SoC在架构过程中考虑到了嵌入式客户的需求,包含支持工业温度、支持错误更正码(ECC)双通道DDR3或DDR4内存、安全启动、多种处理器选项等功能,从而满足一系列嵌入式需求。此外,可配置的热设计功耗(cTDP)让设计人员能够以1瓦为单位在12瓦到35瓦之间调节热设计功耗,实现更高的灵活性。相较于第二代AMD嵌入式R系列APU,AMD嵌入式R系列SoC占用空间降低了35%,对于小规格应用来说可谓是理想之选。
关键性能和规格参数包括:
• 首款支持错误更正码(ECC)双通道DDR3或DDR4内存的嵌入式处理器,速度高达DDR4-2400和DDR3-2133,并支持1.2V DDR4和1.5V/1.35V DDR3
• 独立AMD安全处理器支持AMD硬件验证引导(HVB)下的安全启动,先初始化可信的启动环境,再启动x86核心
• 配备PCIe Gen3 USB3.0、SATA3、SD、GPIO、SPI、I2S、I2C、UART的高性能集成FCH
AMD嵌入式R系列SoC提供了业界领先的十年供应寿命。处理器支持Microsoft Windows 7、Windows Embedded 7&8标准版、Windows 8.1、Windows 10以及AMD的开源Linux驱动,其中包括来自明导国际(Mentor Graphics)的Mentor Embedded Linux及其Sourcery CodeBench IDE开发工具。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。