集成了x86、Vega 图形、XDNA AI 和 FPGA 电路的Arm真是太棒了!
作者:Tobias Mann
更新时间:协调世界时2024年2月7日星期三21:53
AMD昨天推出了Embedded+架构,此举提出了一个问题:既然可以拥有五个计算架构,为什么还要选择一个呢?
AMD的最新产品通过PCIe将x64 Ryzen处理器与Versal AI Edge 片上系统结合,让它们可以在网络边缘等低功耗、低延迟数据处理应用的单板上使用。
主处理器可以从Ryzen Embedded R2000系列中挑选,该系列于2022年推出,拥有多达4个Zen+ CPU内核、16个PCIe 3.0 通道和多达8个 Radeon Vega图形计算单元。
该芯片有一个专用的PCIe链路,连接到AMD Versal自适应SoC,前者于2021年首次出现。这些Versal器件包含一系列AI引擎、一个FPGA和四个Arm设计的CPU内核(两个Cortex-A72和两个Cortex-R5)。在ML处理方面,AMD声称其顶级Versal芯片能够在INT8上实现约228 TOPS。
正如Embedded+这个名字所示,这种技术应该应用在相对恶劣条件下经久耐用的设备中——公共显示器、现场仪器和机械、网络边缘处理、运输和汽车等。它不见得非常尖端或者非常强大;可靠性、成本、功耗性能比、占用空间和特定工作负载验证通常更为重要。因此,可以预计这些芯片会使用较旧的架构。
事实上,AMD将目光投向了工业机器人、零售和监控安全、智慧城市设备、网络、机器视觉和医学成像;其客户会判断该硬件的延迟、特质和处理管道是否适合其应用。
AMD的工业视觉、医疗保健和科学市场高级总监Chetan Khona在一份声明中侃侃而谈:“在自动化系统中,传感器数据的价值会随着时间的推移递减,并且必须尽可能使用最新鲜的信息进行操作,以实现最低延迟的确定性响应。在工业和医疗应用中,需要在毫秒级别做出许多决策。”
为了达到这些延迟目标,AMD鼓励开发人员将工作负载分解为更小的部分,这些部分可以通过平台的各种计算架构单独加速。例如,自适应SoC的FPGA和AI引擎可对来自多个传感器或馈送的流数据进行预处理和分类,而Ryzen处理器的CPU和GPU内核则运行控制系统和图形用户界面。
当然,混合内核系统一直是这样处理的,AMD并不是第一个将混合架构置于一块板上甚至单个芯片中的公司。这是显而易见的。有趣的是,AMD不仅在Ryzen和Versal系列中采用了这种做法,还非常强调嵌入式和网络边缘端的AI,如果人们不需要,它就不会这样做。理论上如此。
在首批基于AMD Embedded+设计的系统中,Sapphire的Edge+ VPR-4616-MB非常有创意。它将四核Ryzen嵌入式R2314处理器连接到mini-ITX规格的主板上的Versal AI Edge VE2302 Adaptive SoC,据报道,该主板的功耗低至30瓦。Sapphire还计划为该主板配备内存、存储、PSU和机箱,成为完全组装的计算机。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。