近几年体育行业的发展呈现出了数字化、智能化的趋势, AI技术不断渗透进入体育行业帮助体育行业突破种种瓶颈。
AI+体育赛事正在改变未来,甚至将贯穿体育运动发展的各个方面,包括运动员训练比赛、赛事组织、媒体传播、观众体验互动,以及体育衍生产业等诸多环节中。
比如总部位于新加坡的TVConal公司使用NVIDIA Metropolis、TAO工具套件和SDK建立了一个自动标记体育比赛详情的AI视频分析平台,让包括运动队、联赛和电视广播公司等用户能够从这些海量数据中实时获得表现洞察。
TVConal是“Television Content Analytics”的简称。该公司提供各种体育项目的视频分析并以板球、网球、羽毛球和足球为主。
掘金AI+体育分析市场
到2028年,全球体育分析市场规模预计将增长 20%以上,而自动视频处理是体育领域的一项革命性技术。
用于创建比赛中重要事件时间线的比赛标签对体育视频分析至关重要。使用标签生成的详细报告为裁判员、教练员、运动员和体育迷提供性能统计数据和视觉反馈。
TVConal总经理Masoumeh Izadi表示,由于动作和其他比赛事件发生在一瞬间,因此一些体育赛事需要多达20名记录员一起工作才能完成实时标签,这项工作既耗时又费力。
有了TVConal的平台,体育分析人师只需点击几下鼠标,就可以从视频帧中提取信息,因为人工智能有助于自动准确地实时标记比赛。这让分析师有时间深入挖掘数据,并为团队提供更详细的反馈。
Izadi表示:“如果一名运动员做出了一个犯规动作,即便该动作超出了人类的毫秒级处理能力,该平台也可以检测到该动作并通知裁判员及时采取行动。”
NVIDIA AI产品组合驱动体育视频分析平台
TVConal之所以能够如此精确的处理能力,得益于NVIDIA Metropolis视觉AI应用框架驱动,可以检测比赛中的重要事件、对运动员的行为进行建模、做出运动预测等。这些功能有助于剖析体育比赛中的微小细节,使运动队能够在赛场上做出更加明智的决定。
NVIDIA Metropolis简化了从边缘到云的AI视频分析应用开发、部署与扩展。Metropolis包括预训练模型、训练和优化工具、软件开发工具包、CUDA-X库等,它们都经过优化,可在基于NVIDIA EGX企业平台的NVIDIA认证系统上运行以实现加速计算。
TVConal使用NVIDIA DeepStream SDK简化视频处理管道、使用NVIDIA预训练模型和TAO工具套件加速AI训练并使用NVIDIA TensorRT SDK优化推理。
其中NVIDIA DeepStream是一款用于多传感器实时处理的流分析工具包,是Metropolis SDK的一个重要组成部分。凭借DeepStream,TVConal团队能够实时处理现场视频和音频流,达到匹配视频帧率的必要速度。TensorRT库还帮助TVConal转换其机器学习模型,在保持准确性的同时更快处理数据。
而TAO工具套件是NVIDIA训练、适应和优化(TAO)框架的低代码版本,它能够简化并加速语音和视觉AI应用的AI模型创建。
最新发布的TAO工具套件包括全新和更新的视觉及语音预训练模型。ONNX模型权重导入、REST API和TensorBoard集成等新功能。
最新版本中新增的一些预训练模型可以根据人的姿势对人的动作进行分类,估计人、动物和物体上的关键点等,能够快速追踪模型创建流程,提高开发者的生产力。
此外,TVConal是NVIDIA初创加速计划成员,可以获得来自NVIDIA的技术资源、行业专家和产品上市支持。目前全球越来越多的创新企业正在使用NVIDIA Metropolis进行体育分析,包括初创企业Pixellot、Track160和Veo。
结语
AI与体育产业正在碰撞出火花,而且随着赛事数字化的发展,AI在其中的作用越发明显。NVIDIA提供了丰富的产品组合,包括Metropolis、TAO等,持续用AI赋能体育赛事。
好文章,需要你的鼓励
这项研究由新加坡国立大学团队开发的DualParal技术,通过创新的双重并行架构解决了AI视频生成的长度限制问题。该方法同时在时间帧和模型层两个维度实现并行处理,配合分块降噪机制、特征缓存和协调噪声初始化策略,使生成分钟级长视频成为可能。实验表明,在生成1,025帧视频时,DualParal比现有技术减少了高达6.54倍的延迟和1.48倍的内存成本,同时保持了高质量的视频输出,为内容创作者提供了生成更长、更复杂视频叙事的新工具。
SoloSpeech是约翰霍普金斯大学研究团队开发的创新语音处理技术,针对"鸡尾酒会效应"问题提出了全新解决方案。该系统通过级联生成式管道整合压缩、提取、重建和校正过程,实现了高质量目标语音提取。与传统判别式模型相比,SoloSpeech采用无需说话者嵌入的设计,直接利用提示音频的潜在空间信息与混合音频对齐,有效避免特征不匹配问题。在Libri2Mix及多个真实世界数据集上的评测显示,SoloSpeech在清晰度、质量和泛化能力上均达到了领先水平,为语音分离技术开辟了新方向。
这项由北京大学深圳研究生院、伟湾大学、腾讯ARC实验室和兔小贝智能联合研究的Sci-Fi框架,通过创新的对称约束机制,解决了视频帧间插值中的关键问题。研究团队设计了轻量级EF-Net模块,增强结束帧约束力,使其与起始帧形成平衡影响,从而生成更自然流畅的中间过渡帧。实验证明,该方法在各种场景下都优于现有技术,特别适用于电影制作、动画创作和视频编辑领域,显著降低了人力成本。
这项来自西北大学和谷歌的研究突破了传统马尔可夫强化学习的局限,通过贝叶斯自适应RL框架解释了大语言模型中涌现的反思性推理行为。研究团队提出的BARL算法通过维护多个解题策略的后验分布,指导模型何时何地进行反思性探索,在数学推理任务上展现出显著优势,比基线方法减少高达50%的标记使用量,同时提高了准确率。这一研究不仅解释了"为什么反思有用",还提供了实用的指导原则,为AI系统的自适应推理能力开辟了新方向。