2021年8月26日,北京——由中国信息通信研究院、工业互联网产业联盟、边缘计算产业联盟联合主办,中国互联网学会、中国自动化学会、全球移动通信系统协会(GSMA)协办的边缘计算开发者大赛今日正式启动。本次大赛上,英特尔与施耐德电气联合承办了边缘控制赛道的比赛,面向高等院校、科研机构、企事业单位、初创团队、个人开发者等边缘计算应用开发等相关领域人群广泛征募参赛开发者。
英特尔公司副总裁、物联网视频事业部全球总经理、物联网事业部中国区总经理陈伟博士表示:“作为改革开放的见证者,英特尔公司看到了中国市场的快速发展,特别是中国本地生态产业链的快速成长。在此期间,英特尔的角色也从一个单纯的硬件产品提供商转变为了加速边缘计算生态创新的倡导者。英特尔的技术和方案,正是通过一个个的本地合作伙伴们,结合中国客户的本地需求,从而变成了一个个适合中国国情的解决方案。欢迎本地合作伙伴们积极参与本次大赛。并预祝首届边缘计算开发者大赛取得圆满成功!”
英特尔公司副总裁、物联网视频事业部全球总经理、物联网事业部中国区总经理陈伟博士
发表致辞
作为边缘控制赛道的联合承办方,英特尔将为边缘控制赛道提供涵盖计算、通讯和存储相关的软硬件产品组合,为参赛选手提供强有力的软硬件支持。而施耐德电气将以全新发布的EcoStruxure™开放自动化平台(EcoStruxure™ Automation Expert)来支持边缘控制赛道。双方共同围绕实际工业场景,诚邀工业人才在开放自动化愿景下互学互鉴,共建开放高效的产业生态环境。
本次大赛边缘控制赛道由面向高校大学生、个人开发者和爱好者的大众组及面向专业系统集成商、软件方案商、硬件供应商的专业组两个组别构成:
大众组和专业组都将经过初赛、优胜选手培训和决赛三个环节,获胜个人和队伍可以借助优胜奖金、供需对接、创业支持等平台资源,推动自身创新应用落至实处,自理论及实践两大层面繁荣边缘计算生态,实现经济、社会效益“双丰收”。
施耐德电气高级副总裁,工业自动化业务中国区负责人庞邢健表示:“自动化解决方案的可移植性、可复用性将是未来实现第四次工业革命所期待的效率目标、释放创新潜力的重要特征之一。以此次大赛为契机,施耐德电气及各合作方将进一步推动EcoStruxure开放自动化平台及背后的开放自动化理念与研究者、应用者的交流融汇。”
针对智能边缘,一直以来英特尔致力于打造云边协同的软硬件产品组合。其中硬件产品包括用于计算的各类XPU,用于通讯的以太网通信和硅光电子以及用于存储的傲腾™等等。鉴于边缘计算的工作情况,以上硬件具备与消费级产品不同的性能,如宽温,超长生命周期支持,高可靠性等;在云边协同的网络需求方面,能够无缝融合5G以及其他网络接口;除此之外,搭配英特尔软件,可满足许多特殊的行业需求的特性,如广泛与AI结合的计算机视觉,广泛用于机器人和移动车辆的功能安全,广泛用于运动控制的实时技术,英特尔固若金汤的数据安全,用于多机协同的可管理性,以及用于单机负载整合的虚拟化技术等等。
此外,搭配多种硬件,英特尔也具备种类多样的软件优势,例如OpenVINO™工具套件、OneAPI、工业边缘洞见平台(EII)等产品。值得一提的是,英特尔边缘计算解决方案中另外一款重要产品,工业边缘控制平台(ECI),自2019年底发布以来,成绩斐然,已在全球助力数十家包括施耐德电气在内的工业客户。
英特尔® 工业边缘控制平台(ECI)是一个融合了实时计算、负载整合、应用程序和平台管理、基础架构管理、工业总线协议、控制类APP范例、信息安全、功能安全于一体的软件参考平台,能够在密集计算环境中实现时间确定性计算,并可将工业控制系统轻松过渡到由软件定义的解决方案中。而作为一个运行在x86硬件上的软件参考架构,它包括下列微服务模块:实时计算,标准工业总线连接,信息安全和功能安全,虚拟化,类IT式管理工具等等,可以帮助工厂改造升级,将单功能、软硬件绑定的传统工业控制系统替换为软件定义的多功能、软硬件解耦的先进控制系统。
作为智能边缘的驱动者,英特尔将凭借一系列领先的产品组合和解决方案,通过行业大赛等方式汇聚产、学、研的多方力量,携手生态伙伴及广大创新者不断探索,加速边缘计算的生态创新,推动我国智能制造的转型升级进程,共同开启中国“数”“智”新时代。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。