ZDNet至顶网服务器频道 10月10日 新闻消息:AMD近日宣布推出业界首款基于下一代图形核心(Graphics Core Next,GCN)架构的独立显卡——AMD嵌入式Radeon E8860 GPU(代号为“Adelaar” )。下一代图形核心(GCN)架构专为推进嵌入式应用的可视化增长和并行处理能力而设计。在相同功率范围内,AMD E8860 GPU的性能是其前身的两倍多,可为嵌入式游戏机、数字标牌、医疗成像、商业航空航天和传统军事等嵌入式应用提供3D和4K图形。与前一代产品相比,其单精度浮点性能提高了33%,达到768 GFLOPS,这使得AMD E8860 GPU也能够应对最复杂的并行应用程序,比如地形和气象绘图,面部和手势识别,以及生物识别和DNA分析等。
AMD全球副总裁、嵌入式解决方案事业部总经理Scott Aylor表示,“如今人们对丰富优质的嵌入式系统图像和增强型嵌入式系统并行计算能力的需求比以往任何时候都要强烈,而且随着我们逐步进入环绕计算时代,该需求预计将会继续增长。传统的图像已不再能够满足当今和未来的嵌入式解决方案需求。凭借前所未有的每瓦特性能,AMD E8860 GPU能够解决在小型构成组件、恶劣环境和关键任务应用程序中驱动多个显示器、3D和4K内容以及GPGPU计算这一需求”。
AMD E8860 GPU 采用多芯片模块封装设计,附带业界领先的7年寿命保障供应,并以移动PCI Express模块(MXM)和PCI Express附加板两种形式提供。
AMD E8860 GPU支持AMD Eyefinity 宽域技术,能够驱动多台独立显示器,并可支持DirectX 11.1、OpenGL 4.2,和OpenCL 1.2等,同时支持微软Windows 7系统、Windows Embedded 7标准版系统、Windows 8/8.1系统、Windows Embedded 8标准版系统、Linux系统,以及由CoreAVI嵌入式软件驱动程序套件支持的高实时性和高安全性操作系统。其他功能包括:
◆业界领先的图形内存
◇ AMD E8860 GPU 具备2GB GDDR5帧缓冲内存,与英伟达(NVIDIA)表现最好的50W 类型GeForce GPU相比,内存带宽要高出多达80%
◆先进的GPGPU并行处理能力,与竞争对手的50W类型独立GPU相比,其每瓦特性能要高出多达61%
◇ 640 shader处理器
◇ 支持AMD APP技术,OpenCL 1.2,DirectCompute 11.1
◇ 768 / 48 GFLOPS 单/双精度峰值(600e/4.5Gbps)
◆性能提升,与上一代相比,每瓦特3D图形性能提升了92%
◇ 3DMark 11得分为2689
◇ 先进的37W TDP(热设计功耗)平台电源管理
◆增强型图形和视频
◇ 128位宽,2GB GDDR5显存,72GB/秒
◇ VCE(视频编码),UVD4(视频解码)
◇ DP1.2,HDMI 1.4,无线显示器,立体3D
市场研究公司VDC Research的 M2M嵌入式技术执行副总裁克里斯•隆美尔(Chris Rommel)表示,“如今市场上各种类型和尺寸的屏幕浩如烟海, 随着这些屏幕对高清、3D 甚至4K 显示能力的需求继续增长,像AMD E8860这样的嵌入式GPU将持之以恒地满足日益严格的OEM喜好。GPGPU计算技术的扩散将会把GPU的适用范围拓展到视觉应用领域之外,并进入必须开展大规模并行计算工作的医疗、传统军事和商业航空航天等应用领域”。
自2014年第1季度起,柯蒂斯-赖特防御解决方案(Curtiss-Wright Defense Solutions)、Quixant、SAPPHIRE、Tech Source Inc.公司、TUL、和WOLF工业系统公司等全球领先的板卡厂商和解决方案提供商将开始出售基于AMD E8860 GPU的数字标牌、传统军事和商业航空航天、医疗成像以及嵌入式游戏机等解决方案。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。