ZDNet至顶网服务器频道 10月10日 新闻消息:AMD近日宣布推出业界首款基于下一代图形核心(Graphics Core Next,GCN)架构的独立显卡——AMD嵌入式Radeon E8860 GPU(代号为“Adelaar” )。下一代图形核心(GCN)架构专为推进嵌入式应用的可视化增长和并行处理能力而设计。在相同功率范围内,AMD E8860 GPU的性能是其前身的两倍多,可为嵌入式游戏机、数字标牌、医疗成像、商业航空航天和传统军事等嵌入式应用提供3D和4K图形。与前一代产品相比,其单精度浮点性能提高了33%,达到768 GFLOPS,这使得AMD E8860 GPU也能够应对最复杂的并行应用程序,比如地形和气象绘图,面部和手势识别,以及生物识别和DNA分析等。
AMD全球副总裁、嵌入式解决方案事业部总经理Scott Aylor表示,“如今人们对丰富优质的嵌入式系统图像和增强型嵌入式系统并行计算能力的需求比以往任何时候都要强烈,而且随着我们逐步进入环绕计算时代,该需求预计将会继续增长。传统的图像已不再能够满足当今和未来的嵌入式解决方案需求。凭借前所未有的每瓦特性能,AMD E8860 GPU能够解决在小型构成组件、恶劣环境和关键任务应用程序中驱动多个显示器、3D和4K内容以及GPGPU计算这一需求”。
AMD E8860 GPU 采用多芯片模块封装设计,附带业界领先的7年寿命保障供应,并以移动PCI Express模块(MXM)和PCI Express附加板两种形式提供。
AMD E8860 GPU支持AMD Eyefinity 宽域技术,能够驱动多台独立显示器,并可支持DirectX 11.1、OpenGL 4.2,和OpenCL 1.2等,同时支持微软Windows 7系统、Windows Embedded 7标准版系统、Windows 8/8.1系统、Windows Embedded 8标准版系统、Linux系统,以及由CoreAVI嵌入式软件驱动程序套件支持的高实时性和高安全性操作系统。其他功能包括:
◆业界领先的图形内存
◇ AMD E8860 GPU 具备2GB GDDR5帧缓冲内存,与英伟达(NVIDIA)表现最好的50W 类型GeForce GPU相比,内存带宽要高出多达80%
◆先进的GPGPU并行处理能力,与竞争对手的50W类型独立GPU相比,其每瓦特性能要高出多达61%
◇ 640 shader处理器
◇ 支持AMD APP技术,OpenCL 1.2,DirectCompute 11.1
◇ 768 / 48 GFLOPS 单/双精度峰值(600e/4.5Gbps)
◆性能提升,与上一代相比,每瓦特3D图形性能提升了92%
◇ 3DMark 11得分为2689
◇ 先进的37W TDP(热设计功耗)平台电源管理
◆增强型图形和视频
◇ 128位宽,2GB GDDR5显存,72GB/秒
◇ VCE(视频编码),UVD4(视频解码)
◇ DP1.2,HDMI 1.4,无线显示器,立体3D
市场研究公司VDC Research的 M2M嵌入式技术执行副总裁克里斯•隆美尔(Chris Rommel)表示,“如今市场上各种类型和尺寸的屏幕浩如烟海, 随着这些屏幕对高清、3D 甚至4K 显示能力的需求继续增长,像AMD E8860这样的嵌入式GPU将持之以恒地满足日益严格的OEM喜好。GPGPU计算技术的扩散将会把GPU的适用范围拓展到视觉应用领域之外,并进入必须开展大规模并行计算工作的医疗、传统军事和商业航空航天等应用领域”。
自2014年第1季度起,柯蒂斯-赖特防御解决方案(Curtiss-Wright Defense Solutions)、Quixant、SAPPHIRE、Tech Source Inc.公司、TUL、和WOLF工业系统公司等全球领先的板卡厂商和解决方案提供商将开始出售基于AMD E8860 GPU的数字标牌、传统军事和商业航空航天、医疗成像以及嵌入式游戏机等解决方案。
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。