至顶网服务器频道 05月16日 新闻消息: 当你驾车驶上高速公路,双手不再受到方向盘的束缚,而是可以读一本喜欢的书,或者与家人一起看一部有趣的电影,甚至可以在午后的时光惬意的小睡一下……汽车不再是一种代步工具,而是真正成为移动的休闲空间,这就是无人驾驶的意义所在。浪潮正协助百度致力于在3-5年内将上述的场景变成现实。

无人驾驶汽车
无人车模型训练要到"天荒地老"?
无人驾驶按照美国标准分为5个阶段,目前在研最高级别的无人驾驶技术只能达到L4,主要依靠高精度地图,配合激光雷达、摄像头、毫米波雷达、超声波传感器、GPS等传感器,通过人工智能算法实现完全自主驾驶。其中,激光雷达扫描相当于"眼睛",可以扫描100-200米的物体,将行驶过程中遇到的行人、车辆、交通标识、距离等环境要素形成实时路况图传给计算设备。而人工智能算法则是"大脑",通过车载计算平台实时分析、识别所有数据,并做出如躲避、超越还是其他等适合当时情况的合理判断。
无人车要想具备"智能",首先需要借助深度学习技术进行线下模型的训练,让机器知道激光扫描"看"到的物体哪些是人、哪些是动物、哪些是树、哪些是信号灯、交通标识代表什么意思等等。然而目前机器在抽象特征提取方面的能力远逊于人类,比如说一个4、5岁的儿童只需要几次就可以准确记住猫的特征,而Google X实验室利用由16000多个处理器、10亿个神经节点组成的虚拟大脑,分析了1000万帧从Youtube上随机抓取的无标签视频剪辑图片,经由了10天时间的运转,才让机器终于熟悉了什么是猫并从接下来输入的2万张图片中正确找出了猫的照片。无人驾驶碰到的环境更加复杂,需要尽可能的识别出在驾驶过程中碰到的各种人、物,如此庞大的学习任务当然需要强大的计算力支持,否则可能真的要让机器学到天荒地老、海枯石烂了。
浪潮SR-AI整机柜服务器支持千亿级别样本训练
线下模型训练最初使用单机多卡的计算设备,并随着数据量的增加而开始采用大规模的GPU集群实现并行协同计算。然而,无人车技术可能是目前最复杂的人工智能应用,其模型训练已上升到千亿样本、万亿参数级别,但传统的训练任务大多在一台机器上完成,只有4-8块卡,根本无法满足超大样本库和参数的训练性能要求。

浪潮SR-AI整机柜服务器
为更顺利的推进无人车技术研发,浪潮与百度共同开发出面向更大规模数据集和深层神经网络的超大规模AI计算模块--SR-AI整机柜服务器。这款产品符合最新的天蝎2.5标准,是全球首个采用PCIe Fabric互联架构设计的AI方案,通过PCI-E交换机和I/O BOX两个模块的配合,GPU和CPU物理解耦池化,二者灵活配置,可实现支持16个GPU的超大扩展性节点。同时,SR-AI整机柜服务器也是国内首个100G RDMA GPU集群,其支持的RDMA技术(远程直接数据存取技术),可以实现GPU与内存数据的直接交互,而不需要经由CPU计算,极大降低网络传输中服务器端数据处理的延迟,使集群达到纳秒级网络延迟,单机处理能力高达512TFlops,相比传统GPU服务器提升一倍以上的计算性能,比一般的AI方案性能提高5-40倍。
在数据中心计算方面,浪潮与百度已保持多年战略合作,并在人工智能所需要的计算架构、技术和产品等方面联合研发,取得诸多成果。双方联合开发的高性能异构计算服务器、FPGA加速模块等被广泛应用在包括百度无人车、百度大脑等人工智能场景。
好文章,需要你的鼓励
印度理工学院研究团队从大脑神经科学的戴尔定律出发,开发了基于几何布朗运动的全新AI图像生成技术。该方法使用乘性更新规则替代传统加性方法,使AI训练过程更符合生物学习原理,权重分布呈现对数正态特征。研究团队创建了乘性分数匹配理论框架,在标准数据集上验证了方法的有效性,为生物学启发的AI技术发展开辟了新方向。
英伟达和诺基亚宣布战略合作,将英伟达AI驱动的无线接入网产品集成到诺基亚RAN产品组合中,助力运营商在英伟达平台上部署AI原生5G Advanced和6G网络。双方将推出AI-RAN系统,提升网络性能和效率,为生成式AI和智能体AI应用提供无缝体验。英伟达将投资10亿美元并推出6G就绪的ARC-Pro计算平台,试验预计2026年开始。
Sony AI开发出SoundReactor框架,首次实现逐帧在线视频转音频生成,无需预知未来画面即可实时生成高质量立体声音效。该技术采用因果解码器和扩散头设计,在游戏视频测试中表现出色,延迟仅26.3毫秒,为实时内容创作、游戏世界生成和互动应用开辟新可能。