2025 年 1 月 8 日, 德州仪器 (TI)推出了全新的集成式汽车芯片,能够帮助各个价位车辆的驾乘人员,实现更安全、更具沉浸感的驾驶体验。TI AWRL6844 60GHz 毫米波雷达传感器通过运行边缘 AI 算法的单个芯片,支持用于座椅安全带提醒系统的占用检测、车内儿童检测和入侵检测,从而实现更安全的驾驶环境。借助 TI 的下一代音频 DSP 核心、AM275x-Q1 MCU 和 AM62D-Q1 处理器,能够更加经济实惠地获得高质量音频体验。结合 TI 全新的模拟产品(包括 TAS6754-Q1 D 类音频放大器),工程师可以获得一个完整的音频放大系统解决方案。TI 将在 2025 年 1 月 7 日至 10 日于美国内华达州拉斯维加斯举办的消费电子展 (CES) 上展示这些器件。
“无论是入门级汽车还是豪华级汽车,无论是燃油车还是电动汽车,如今的驾驶员都期望这些车辆能够提供更佳的车内体验,”TI 嵌入式处理部门高级副总裁 Amichai Ron 表示。“TI 持续提供创新技术,旨在推动未来汽车驾驶体验的发展和改进。我们的边缘 AI 雷达传感器帮助汽车制造商提升车辆的安全性,并且能够根据驾驶员的动作和需求做出快速响应,而我们的片上音频系统能提供更加身临其境的音频体验,从而提升了驾驶乐趣。它们共同创造了全新的车内体验。”
支持边缘 AI 的三合一雷达传感器提高了检测精度
原始设备制造商 (OEM) 正在不断将更多的传感器技术集成到汽车设计中,以提升车内体验并满足不断发展的安全标准。使用 TI 支持边缘 AI 的 AWRL6844 60GHz 毫米波雷达传感器后,工程师能够整合三项车内检测功能来替代多种传感器技术(例如,座椅重量传感垫和超声波传感器)。
AWRL6844 集成了四个发送器和四个接收器,能够提供高分辨率的检测数据,并且成本经过优化,非常适合 OEM 使用。采集的数据输入到应用特定的 AI 驱动算法中,这些算法在可定制的片上硬件加速器和 DSP 上运行,从而能够提高决策的准确性并加快数据处理速度。AWRL6844 传感器的边缘智能功能有助于提升驾驶体验,例如:
TI 完整的音频产品系列,能够提供更佳的汽车音频体验
随着驾驶者对各类车型车内体验的期望不断提升,OEM 希望在提供高品质音频的同时,能够尽量降低设计复杂性和系统成本。AM275x-Q1 MCU 和 AM62D-Q1 处理器通过将 TI 基于矢量的 C7x DSP 核心、Arm® 核心、存储器、音频网络和硬件安全模块集成到一个符合功能安全要求的 SoC 中,减少了汽车音频放大器系统所需的元件数量。C7x 核心与矩阵乘法加速器结合,共同构成了一个神经处理单元,用于处理传统音频算法和基于边缘 AI 的音频算法。这些汽车音频 SoC 可进行扩展,设计人员可以根据不同的存储器和性能需求,从入门级到高端系统中进行选择,只需进行很少的重新设计,不需要大量投资。
TI 的下一代 C7x DSP 核心的处理性能是其他音频 DSP 的四倍以上,使音频工程师可以在单一处理器核心上同时处理更多的音频功能。AM275x-Q1 MCU 和 AM62D-Q1 处理器具有空间音频、主动降噪、声音合成和高级车载网络功能(包括以太网音频视频桥接),能够在车内实现身临其境的音频体验。
为了进一步优化汽车音频设计,工程师可以使用 TI 的 TAS6754-Q1 音频放大器,该放大器采用创新的 1L 调制技术,可实现出色的音频性能和低功耗,且相比现有的 D 类放大器,其所需的电感数量减少了一半。TAS67xx-Q1 系列器件集成了 OEM 所需的实时负载诊断功能,帮助工程师简化设计、降低成本和提高效率,同时保证音频质量不受影响。
CES 2025 TI 展位
在 2025 年 CES 展会上,TI 将展示其半导体技术如何通过实现更高水平的自动化、智能化、功效和性价比,重新定义各类体验。展示内容包括在软件定义车辆、高级驾驶辅助系统、机器人、可穿戴医疗设备、能源基础设施和个人电子产品等领域的创新。请访问 ti.com/CES,了解详情。
封装、供货情况
好文章,需要你的鼓励
这项研究由德累斯顿工业大学等机构的研究团队完成,旨在解决主动学习未被广泛应用的问题。研究者构建了包含460万种超参数组合的实验网格,系统分析了各参数对主动学习性能的影响。研究发现,不同策略实现间存在显著差异,基于边缘的不确定性策略整体表现最佳,随机选择约4000个超参数组合即可获得可靠结果。这些发现为设计可重现、可信赖的主动学习实验提供了明确指导,有助于降低入门门槛,促进技术在实际应用中的普及。
这项由英国爱丁堡大学和上海人工智能实验室研究者共同完成的工作提出了LongBioBench,一种用于评估长文本语言模型的新型基准测试框架。通过使用人工生成的虚构人物传记作为测试环境,该框架在保持可控性的同时,提供了更真实的评估场景。研究对18个长文本模型的测试表明,即使最先进的模型在检索、推理和可信任性方面仍存在显著挑战,特别是上下文长度增加时。研究还揭示了现有合成基准测试的设计缺陷和长上下文预训练的局限性,为未来模型开发提供了重要指导。
SuperWriter是一项来自新加坡科技设计大学和清华大学的突破性研究,通过模仿人类"先思考后写作"的过程,彻底改良了AI长文生成能力。该研究团队开发的框架包含三个关键阶段:规划、写作和修改,使AI能像专业作家一样进行结构化思考。实验结果表明,经过训练的SuperWriter-LM模型不仅超越同等规模的所有AI模型,甚至在某些领域表现优于规模更大的顶级模型,为AI辅助写作开创了新的可能性。
香港大学与阿里巴巴达摩院合作开发的LayerFlow是一种突破性的层级视频生成技术,能同时生成透明前景、完整背景和混合场景视频。该技术通过创新的框架设计将不同视频层级作为子片段连接,并引入层级嵌入使模型区分各层级。面对高质量训练数据稀缺的挑战,研究团队设计了三阶段训练策略,结合Motion LoRA和Content LoRA,实现了图像和视频数据的联合训练。LayerFlow不仅支持多层视频生成,还能实现视频分解和条件层生成,为视频创作领域带来革命性变革。