2024 年 4 月 24 日,数字成像雷达芯片技术头部企业 Uhnder 宣布推出全新成像雷达解决方案 S81。S81 是一款高度集成的单芯片解决方案,支持多达 96 个 MIMO 通道,且基于领先的数字编码调制(DCM),可以为更广泛的汽车市场提供更具性价比的 4D 数字成像雷达解决方案。
在自动驾驶领域,4D 成像雷达以其卓越的安全性能备受瞩目,然而,由于技术复杂和成本高昂,目前这一技术仅用于高端车型。为了解决这一问题,Uhnder 开发了首款适用于更广泛汽车市场的成像雷达解决方案 S81,让更多的汽车和雷达制造商能够享受到 4D 成像雷达带来的安全优势。
S81 采用高度集成的单芯片设计,支持多达 96 个 MIMO 通道,相较于目前市面常用的 12 通道,以及多芯片级联设计的解决方案,其性价比优势显而易见。此外,该方案具备高对比度分辨率(HCR),能够精确区分相邻的物体,为自动驾驶系统提供更精准的环境感知能力。同时,S81 引入了先进的数字编码调制(DCM)技术,能够有效提升雷达系统的抗干扰性能,抵御各种复杂环境中的干扰信号。
值得一提的是,S81 还具备强大的安全防护机制,能够有效抵御黑客攻击和信号欺骗,从而进一步保障自动驾驶系统的安全性和可靠性。此外,该单芯片解决方案具备高度的可编程性,配备了完善的软件、算法、API 及系统工具,能够帮助客户缩短产品上市时间,并降低开发成本。
Uhnder 首席执行官 Manju Hegde 表示:“道路安全对包括司机和乘客在内的所有道路使用者来说都至关重要。通过推出 S81,我们希望可以将 4D 数字成像雷达出色的安全性能普及到更广泛的汽车市场,为更多消费者带来安全、智能的驾驶体验。”
目前,S81 已通过相关车规级认证,并支持在多种汽车配置和用例中进行部署,包括汽车的前、后和角雷达等,能够充分满足汽车制造商的多样化需求。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。