摘要:作为WebRTC 1.0版定稿后的首次大规模技术会议,全球的WebRTC生态玩家将聚焦5月19-2日上海——WebRTCon 2018。
4月17日,距离WebRTCon 2018举行还有一个多月的时间,这是由音视频技术社区LiveVideoStack发起的WebRTC生态大会。大会将聚焦WebRTC技术实践与应用案例两大主线,旨在为WebRTC的7年长跑做一次全面的总结,并为1.0版定稿后找准方向、蓄力出击。
WebRTC是Google开源的多媒体通信框架,2017年不仅完成了1.0版定稿,而且获得了苹果的支持,为打通移动端、浏览器以及IoT等生态系统做好了准备。通过WebRTC,开发者可以快速搭建自己的通信服务,大大节省了研发成本。
此外,WebRTC还获得了Google等主流媒体生态伙伴联盟——AOM的支持,其第一款编解码器AV1在3月完成了1.0版。虽然H.264依然牢牢占据着最流行的视频编解码器,但随着5G在全球逐步商用,以及4K乃至8K视频逐步取代2K,对更高性能的编解码器的需求日益强烈。虽然HEVC生态逐渐成熟,但却饱受专利风险困扰。在这样的背景下,开源、免专利费的AV1很自然成为多媒体生态关注的对象。
在Google看来,编解码器应该和操作系统、浏览器一样是免费的资源,只有这样开发者才能专注在应用层的开发。基于这样的理念,AV1横空出世,他与WebRTC相互配合,如虎添翼。
秉承对内容精益求精,WebRTCon 2018设立了主题演讲,WebRTC与前端,行业应用专场,测试监控和服务保障,娱乐多媒体开发应用实践,WebRTC深度开发,解决方案专场,WebRTC服务端开发,新技术跨界,WebRTC与Codec等多个专场。
讲师方面,来自Google的WebRTC产品负责人Niklas Blum带来WebRTC的最新演进动态,Google多媒体组的Zoe Liu和姜健将分别从AV1与WebRTC和传统Codec与WebRTC协作优化的角度分享经验。
阿里巴巴高级技术专家陈虓将(仲升),腾讯音视频实验室高级工程师张轲,网易云信多媒体资深技术架构师吴桐;TutorABC大前端负责人和君着重介绍WebRTC在前端应用实践经验;作为深度拥抱WebRTC的平台,声网Agora首席WebRTC架构师陈功介绍他们所做的优化与改进。
由于WebRTC先天不具备MCU,各家都在探索相应的解决方案,唐桥科技首席架构师章琦会分享一种全新的混合架构。Aupera傲睿智存CTO周正宁会从FPGA硬件加速的角度,带来MCU优化的新思路。同时,在跨界技术专场会介绍新技术与WebRTC的结合,如优酷VR技术专家盛骁杰介绍VR生态的最新演进。
中兴微电子技术总监、人工智能首席科学家徐科,战旗直播流媒体研发工程师石硕,咪咕视讯王琦还会从芯片制造、成本控制及5G等技术介绍个人的探索与经验。
最后,如果你是刚刚接触学习WebRTC,组委会还提供“WebRTC基础培训:从零到打造多人视频会议”,帮助你快速掌握WebRTC的相关模块,并通过亲自动手搭建一套多人视频会议系统,让你在短时间内掌握WebRTC基本功能。
了解更多讲师资料和大会的最新信息,请访问大会官网。5月4日前购票,享受9折优惠。期待与你5月相聚上海,共同见证WebRTC的未来。
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。