无人驾驶的新“国民CP” 原创

无人驾驶按照美国标准分为5个阶段,目前在研最高级别的无人驾驶技术只能达到L4,主要依靠高精度地图,配合激光雷达、摄像头、毫米波雷达、超声波传感器、GPS等传感器,通过人工智能算法实现完全自主驾驶。

至顶网服务器频道 05月16日 新闻消息: 当你驾车驶上高速公路,双手不再受到方向盘的束缚,而是可以读一本喜欢的书,或者与家人一起看一部有趣的电影,甚至可以在午后的时光惬意的小睡一下……汽车不再是一种代步工具,而是真正成为移动的休闲空间,这就是无人驾驶的意义所在。浪潮正协助百度致力于在3-5年内将上述的场景变成现实。

 无人驾驶的新“国民CP”

无人驾驶汽车

无人车模型训练要到"天荒地老"?

无人驾驶按照美国标准分为5个阶段,目前在研最高级别的无人驾驶技术只能达到L4,主要依靠高精度地图,配合激光雷达、摄像头、毫米波雷达、超声波传感器、GPS等传感器,通过人工智能算法实现完全自主驾驶。其中,激光雷达扫描相当于"眼睛",可以扫描100-200米的物体,将行驶过程中遇到的行人、车辆、交通标识、距离等环境要素形成实时路况图传给计算设备。而人工智能算法则是"大脑",通过车载计算平台实时分析、识别所有数据,并做出如躲避、超越还是其他等适合当时情况的合理判断。

无人车要想具备"智能",首先需要借助深度学习技术进行线下模型的训练,让机器知道激光扫描"看"到的物体哪些是人、哪些是动物、哪些是树、哪些是信号灯、交通标识代表什么意思等等。然而目前机器在抽象特征提取方面的能力远逊于人类,比如说一个4、5岁的儿童只需要几次就可以准确记住猫的特征,而Google X实验室利用由16000多个处理器、10亿个神经节点组成的虚拟大脑,分析了1000万帧从Youtube上随机抓取的无标签视频剪辑图片,经由了10天时间的运转,才让机器终于熟悉了什么是猫并从接下来输入的2万张图片中正确找出了猫的照片。无人驾驶碰到的环境更加复杂,需要尽可能的识别出在驾驶过程中碰到的各种人、物,如此庞大的学习任务当然需要强大的计算力支持,否则可能真的要让机器学到天荒地老、海枯石烂了。

浪潮SR-AI整机柜服务器支持千亿级别样本训练

线下模型训练最初使用单机多卡的计算设备,并随着数据量的增加而开始采用大规模的GPU集群实现并行协同计算。然而,无人车技术可能是目前最复杂的人工智能应用,其模型训练已上升到千亿样本、万亿参数级别,但传统的训练任务大多在一台机器上完成,只有4-8块卡,根本无法满足超大样本库和参数的训练性能要求。

无人驾驶的新“国民CP”

浪潮SR-AI整机柜服务器

为更顺利的推进无人车技术研发,浪潮与百度共同开发出面向更大规模数据集和深层神经网络的超大规模AI计算模块--SR-AI整机柜服务器。这款产品符合最新的天蝎2.5标准,是全球首个采用PCIe Fabric互联架构设计的AI方案,通过PCI-E交换机和I/O BOX两个模块的配合,GPU和CPU物理解耦池化,二者灵活配置,可实现支持16个GPU的超大扩展性节点。同时,SR-AI整机柜服务器也是国内首个100G RDMA GPU集群,其支持的RDMA技术(远程直接数据存取技术),可以实现GPU与内存数据的直接交互,而不需要经由CPU计算,极大降低网络传输中服务器端数据处理的延迟,使集群达到纳秒级网络延迟,单机处理能力高达512TFlops,相比传统GPU服务器提升一倍以上的计算性能,比一般的AI方案性能提高5-40倍。

在数据中心计算方面,浪潮与百度已保持多年战略合作,并在人工智能所需要的计算架构、技术和产品等方面联合研发,取得诸多成果。双方联合开发的高性能异构计算服务器、FPGA加速模块等被广泛应用在包括百度无人车、百度大脑等人工智能场景。

来源:至顶网服务器频道

0赞

好文章,需要你的鼓励

2017

05/16

11:31

分享

点赞

邮件订阅
白皮书