集成了x86、Vega 图形、XDNA AI 和 FPGA 电路的Arm真是太棒了!
作者:Tobias Mann
更新时间:协调世界时2024年2月7日星期三21:53
AMD昨天推出了Embedded+架构,此举提出了一个问题:既然可以拥有五个计算架构,为什么还要选择一个呢?
AMD的最新产品通过PCIe将x64 Ryzen处理器与Versal AI Edge 片上系统结合,让它们可以在网络边缘等低功耗、低延迟数据处理应用的单板上使用。
主处理器可以从Ryzen Embedded R2000系列中挑选,该系列于2022年推出,拥有多达4个Zen+ CPU内核、16个PCIe 3.0 通道和多达8个 Radeon Vega图形计算单元。
该芯片有一个专用的PCIe链路,连接到AMD Versal自适应SoC,前者于2021年首次出现。这些Versal器件包含一系列AI引擎、一个FPGA和四个Arm设计的CPU内核(两个Cortex-A72和两个Cortex-R5)。在ML处理方面,AMD声称其顶级Versal芯片能够在INT8上实现约228 TOPS。
正如Embedded+这个名字所示,这种技术应该应用在相对恶劣条件下经久耐用的设备中——公共显示器、现场仪器和机械、网络边缘处理、运输和汽车等。它不见得非常尖端或者非常强大;可靠性、成本、功耗性能比、占用空间和特定工作负载验证通常更为重要。因此,可以预计这些芯片会使用较旧的架构。
事实上,AMD将目光投向了工业机器人、零售和监控安全、智慧城市设备、网络、机器视觉和医学成像;其客户会判断该硬件的延迟、特质和处理管道是否适合其应用。
AMD的工业视觉、医疗保健和科学市场高级总监Chetan Khona在一份声明中侃侃而谈:“在自动化系统中,传感器数据的价值会随着时间的推移递减,并且必须尽可能使用最新鲜的信息进行操作,以实现最低延迟的确定性响应。在工业和医疗应用中,需要在毫秒级别做出许多决策。”
为了达到这些延迟目标,AMD鼓励开发人员将工作负载分解为更小的部分,这些部分可以通过平台的各种计算架构单独加速。例如,自适应SoC的FPGA和AI引擎可对来自多个传感器或馈送的流数据进行预处理和分类,而Ryzen处理器的CPU和GPU内核则运行控制系统和图形用户界面。
当然,混合内核系统一直是这样处理的,AMD并不是第一个将混合架构置于一块板上甚至单个芯片中的公司。这是显而易见的。有趣的是,AMD不仅在Ryzen和Versal系列中采用了这种做法,还非常强调嵌入式和网络边缘端的AI,如果人们不需要,它就不会这样做。理论上如此。
在首批基于AMD Embedded+设计的系统中,Sapphire的Edge+ VPR-4616-MB非常有创意。它将四核Ryzen嵌入式R2314处理器连接到mini-ITX规格的主板上的Versal AI Edge VE2302 Adaptive SoC,据报道,该主板的功耗低至30瓦。Sapphire还计划为该主板配备内存、存储、PSU和机箱,成为完全组装的计算机。
好文章,需要你的鼓励
英特尔携手戴尔以及零克云,通过打造“工作站-AI PC-云端”的协同生态,大幅缩短AI部署流程,助力企业快速实现从想法验证到规模化落地。
意大利ISTI研究院推出Patch-ioner零样本图像描述框架,突破传统局限实现任意区域精确描述。系统将图像拆分为小块,通过智能组合生成从单块到整图的统一描述,无需区域标注数据。创新引入轨迹描述任务,用户可用鼠标画线获得对应区域描述。在四大评测任务中全面超越现有方法,为人机交互开辟新模式。
阿联酋阿布扎比人工智能大学发布全新PAN世界模型,超越传统大语言模型局限。该模型具备通用性、交互性和长期一致性,能深度理解几何和物理规律,通过"物理推理"学习真实世界材料行为。PAN采用生成潜在预测架构,可模拟数千个因果一致步骤,支持分支操作模拟多种可能未来。预计12月初公开发布,有望为机器人、自动驾驶等领域提供低成本合成数据生成。
MIT研究团队发现,AI系统无需严格配对的多模态数据也能显著提升性能。他们开发的UML框架通过参数共享让AI从图像、文本、音频等不同类型数据中学习,即使这些数据间没有直接对应关系。实验显示这种方法在图像分类、音频识别等任务上都超越了单模态系统,并能自发发展出跨模态理解能力,为未来AI应用开辟了新路径。