ZD至顶网服务器频道 08月24日 新闻消息: 英伟达公司已经正式公布其最新系统芯片Parker(亦有代客停车者之意),其将专门用于自动驾驶车辆。
我们在今年年初见到的PX 2设备就包含有两块Parker处理器。这款硬件能够利用车载摄像头及其它传感器数据作为视频输入内容,借此控制车辆巡航。而车内的人工智能模型负责持续就车速、行车位置等决策做出判断。
如此一来,车辆将能够实现自动驾驶,而其使用的人工智能模型则根据周遭对象进行训练。目前的深度学习系统需要利用大量数据以发现个中模式、识别物体并理解周边交通情况。但PX 2这样的设备在制造难度上仅相当于前者的一半甚至三分之一。如果大家希望拥有一套能够切实适应日常路况而不仅仅是高速路线的自动驾驶车辆,那么其必须有能力识别出工程施工、道路标记、十字路口乃至复杂的街巷地形。
我们曾经对Pascal架构进行了深入研究,下面来看此次发布的代号Parker的全新Tegra系统芯片。
这款16纳米FinFET系统芯片包含256个Pascal CUDA GPU核心,外加6个64位ARMv8兼容型通用核心:其中2个为英伟达自家的Denver 2核心,另外4个则为Cortex-A57核心。这6个计算核心能够彼此通信,其中2个Denver核心共享2 MB二级缓存,而各A57核心亦同样共享一套2 MB二级缓存。根据英伟达方面的介绍,这款芯片由台积电负责制造,能够在16位浮点值运算中提供1.5 TFLOPS性能。
其中还包含加密引擎、一套60 FPS 4K视频编码与解码器、音频输出、2D图形渲染器、具备ECC的128位每秒50 GB低功耗DDR4接口,外加图形处理器。大家可以直接将12台道路监控摄像头接入该芯片,从而对车辆周边的路况进行全面监控。再有,该设备也设置了闪存卡存储接口、SATA、QSPI以及标准CAN总线。两个CAN接口符合ISO 11898-1技术规范要求。
Parker芯片充分利用了ARM的硬件虚拟化能力,旨在立足理论层面将软件对车辆的控制功能在沙箱当中进行保护。
其中的安全管理引擎负责各项保护工作。它属于独立的双处理器设计,能够以步调一致的方式检测内部硬件错误。另外,它还运行有一套实时操作系统并监控内置计算机错误,将内容进行即时上报同时尽可能运行恢复代码。其能够从纠错RAM中获取警告,并将DRAM中的不可靠区址屏蔽掉。芯片上的内存亦具备ECC与奇偶校验保护机制。
根据我们得到的消息,Parker还符合ISO 26262标准要求。
下图所示为各CPU之间的对接方式,每个Denver核心拥有128 KB指令与64 KB数据缓存,而每个A57核心则拥有48 KB指令与32 KB数据缓存。这套互连机制允许各Denver与Cortex核心以异构方式协作,操作系统则根据实际工作负载级别将线程与进程迁移至不同的计算核心当中。
其硬件虚拟化功能支持最多8套虚拟机环境。每套邪气机控制自己的显示管线。其中CUDA核心、网络硬件以及音频与DMA电路同样进行虚拟化,从而避免未授权虚拟机对整体系统造成影响。当然,任何虚拟机管理程序都存在bug,希望这种权限外代码执行漏洞不会出现在生死攸关的自动驾驶芯片当中。
最后,让我们看看各组件是如何对接在一起的。Parker通过2个独立的PCIe连接GPU驱动仪表板显示内容与信息面板。该系统芯片的CAN线路直接接入车辆的通信总线,从而对引擎及其它系统加以控制。大家也可以通过USB 3.0将二者相连。另外,我们甚至能够通过10 Gbps以太网实现芯片接入。
在此之前,英伟达方面曾表示Parker芯片中包含有一套千兆以太网控制器,用于处理车辆周边收集到的音频与视频。不过在本示意图中,该以太网则PCIe接入英特尔芯片提供,视频也通过PCIe进行传递。
下图为英伟达公司在本周的Hot Chips大会上公布的演示文稿。
PX 2设备包含2块Parker系统芯片,且能够提供8 TFLOPS性能水平,或者换算为每秒24万亿次深度学习运算。目前已经有80家计算科学研究中心、汽车制造商及其它技术厂商在对这套设备进行研究。沃尔沃公司已经计划于明年将PX 2引入其XC90 SUV车型当中。
好文章,需要你的鼓励
在迪拜Gitex 2025大会上,阿联酋成为全球AI领导者的雄心备受关注。微软正帮助该地区组织从AI实验阶段转向实际应用,通过三重方法提供AI助手、协同AI代理和AI战略顾问。微软已在阿联酋大举投资数据中心,去年培训了10万名政府员工,计划到2027年培训100万学习者。阿联酋任命了全球首位AI部长,各部门都配备了首席AI官。微软与政府机构和企业合作,在公民服务和金融流程等领域实现AI的实际应用,构建全面的AI生态系统。
Google DeepMind最新研究发现,视频生成AI模型Veo 3展现出惊人的零样本学习能力,能够在未经专门训练的情况下完成图像分割、边缘检测、迷宫求解等多种视觉任务。研究团队通过18,384个视频样本验证了这一发现,认为视频模型正朝着通用视觉智能方向发展,可能引发类似大语言模型的行业变革。
苹果与俄亥俄州立大学研究人员发布名为FS-DFM的新模型,采用少步离散流匹配技术,仅需8轮快速优化即可生成完整长文本,效果媲美需要上千步骤的扩散模型。该模型通过三步训练法:处理不同优化预算、使用教师模型指导、调整迭代机制来实现突破。测试显示,参数量仅1.7亿至17亿的FS-DFM变体在困惑度和熵值指标上均优于70-80亿参数的大型扩散模型。
北航团队开发的GeoSVR技术突破了传统3D重建方法的局限,采用稀疏体素表示和体素不确定性评估,无需依赖初始点云即可实现高精度表面重建。该方法通过智能的深度约束和体素协同优化策略,在DTU等标准数据集上取得了最佳性能,为VR/AR、文物保护、影视制作等领域提供了新的技术选择。