TensorFlow与Keras加持,基于NVIDIA Jetson Nano的新应用助力智慧城市应用下网络和云资源的最佳整理利用。
今天的智慧城市应用主要依赖于对大量摄像头视频数据的分析。由此,对视频中最相关的事件的识别与推理能力对于构建高效、可扩展的应用至关重要。
在最近结束的边缘AI挑战赛中,SmellslikeML团队提出了一个基于NVIDIA Jetson Nano的应用,并以此斩获智能视频分析和智慧城市类别二等奖。
该应用的核心是在Jetson Nano上使用TensorFlow和Keras进行模型学习和运行的自动编码器模型。模型通过学习每个即将出现的视频帧的场景上下文实现标记异常事件的能力开发。该小组建议使用DeepStream SDK处理这些异常事件,从而做出进一步推理,例如识别和追踪场景中的对象。
在有连续活动的场景中(例如繁忙的道路),这种追踪并标记异常图像的方法优于简单的运动检测算法。在下面的视频中,该应用正确标记了异常事件,此过程中的图像馈送也减少了100倍。
模型正确识别可以进一步分析的异常事件
根据该团队的建议,这一模型可以应用于视频分析管道中,从而实现智慧城市应用中对网络和云资源的最佳整理利用。
新一代自主机器嵌入式系统NVIDIA Jetson将现代AI的力量带入数百万边缘设备,开启嵌入式物联网应用程序新领域。专区有最新活动、产品、资源和学习内容,带您感知AI新维度。访问地址:http://www.zhiding.cn/special/jetson
好文章,需要你的鼓励
腾讯今日开源混元MT系列语言模型,专门针对翻译任务进行优化。该系列包含四个模型,其中两个旗舰模型均拥有70亿参数。腾讯使用四个不同数据集进行初始训练,并采用强化学习进行优化。在WMT25基准测试中,混元MT在31个语言对中的30个表现优于谷歌翻译,某些情况下得分高出65%,同时也超越了GPT-4.1和Claude 4 Sonnet等模型。
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
今年是Frontiers Health十周年。在pharmaphorum播客的Frontiers Health限定系列中,网络编辑Nicole Raleigh采访了Startup Health总裁兼联合创始人Unity Stoakes。Stoakes在科技、科学和设计交汇领域深耕30多年,致力于变革全球健康。他认为,Frontiers Health通过精心选择的空间促进有意义的网络建设,利用网络效应推进创新力量,让企业家共同构建并带来改变,从而有益地影响全球人类福祉。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。