近年来,算网融合已经得到ICT、金融、能源、超算等多领域的高度认可,被广泛视为加速产业数字化升级演进的重要抓手。我国高度重视这一发展契机,聚焦数字经济、新型基础设施等重点命题,自顶而下开展布局。
8月25日,中国信通院联合中国通信标准化协会算网融合产业及标准推进委员会(CCSA TC621)共同主办的“2022算网融合产业发展峰会”在北京成功举办。大会以“开放、创新、融合、共赢”为主题,汇聚来自电信运营商、设备制造商、互联网企业、高等院校、科研院所等单位的多位技术大咖,围绕技术架构、产业发展、典型应用等多个维度,分析2022年度“计算+网络”领域的发展趋势和方向。
九州云作为边缘计算领域的创新领导者受邀出席大会,获颁“边缘计算优秀方案奖”,并通过论坛演讲、设置展台等内容丰富的现场展示九州云在边缘计算领域的成果和实力。
获奖荣誉·边缘计算创新和服务能力再获认可
会议期间,中国信通院正式颁发“2021年度SD-WAN、零信任、EC优秀案例奖”。经过材料盲审、专家评审等环节的严格遴选,综合基准能力、融合创新、行业影响和效益价值等维度,九州云申报的“5G专网+边缘计算助力汽车制造业智慧物流建设”项目荣誉入选,获颁“2021年度边缘计算优秀方案奖”。本次九州云基于5G专网+边缘计算打造的智慧物流解决方案载誉而归,不仅改变了传统业务运营方式和作业模式,更进一步提升了物流企业对自身业务的自主可控能力和生产运营效率,为推动边缘计算在制造、物流等行业领域应用部署提供新方向。
展区回顾·前沿技术、精美礼品互动呈现边缘看点
作为算网融合“计算网络化”演进的核心技术,边缘计算在边缘侧提供低时延、广连接、大带宽、智能化的服务,在教育、能源、工业、交通等众多垂直行业得到广泛的应用,为算网融合技术创新发展奠定能力基础。
在本届大会的品牌展示区,九州云展区吸引了众多嘉宾驻足,前来咨询的专业人士络绎不绝。九州云在展区不仅准备了多种精美礼品,还向参会嘉宾提供了多种前沿技术架构白皮书,重点展示了5G MEC和V2X深度融合的OpenV2X车路协同开源平台以及九州云多项基于OpenStack开源技术的边缘计算产品及解决方案。
演讲分享·探索5G MEC行业深度融合
为进一步凝聚边缘计算产业共识,充分发挥边缘计算在算网融合领域的赋能作用,推进边缘计算技术与产业发展,大会特别设立“边缘计算产业发展论坛”。九州云边缘计算行业方案总监纪伟明带来以“5G MEC边缘计算发展的现状挑战和未来”为主题的精彩演讲,与来自政府、学术、科研等领域的领导、嘉宾就边缘计算关键技术与产业发展趋势展开探讨和交流。
纪伟明分享了过去五年间九州云在边缘计算MEC领域的探索和实践,成功落地了智能制造、智慧场馆、云游戏等行业和领域多个场景的MEC部署,此外还在车联网等领域取得了重要进展。深度剖析边缘网关、5G MEC边缘云、CDN云边缘三种边缘计算模式的优势和挑战,详细解读了5G MEC边缘云和CDN云边缘国内外发展趋势以及两者之间相互渗透发展的博弈。同时回顾5G MEC边缘云相关产业链合围和行业融合,阐述5G MEC边缘与行业深度融合的方向。
最后,纪伟明以OpenV2X车路协同开源项目为例分享了在车路协同领域的创新和探索。OpenV2X项目是在上海开源信息技术协会组织下,由九州云联合东南大学、南开大学以及企业代表共同发起。项目基于开放源码方式,整合5G、C-V2X、AI、MEC等技术组合,支持海量路侧信息收集、融合、智能运算和云边协同能力,遵循国际V2X和“新四跨”协议的标准接口定义,具备厂商兼容、接口透明、生态开放的能力,解决当前车路协同系统(Coopertive Vehicle Infrastructure Systrem, CVIS)中路侧系统遇到的“生态不多样、平台不开放、5G未联动、算法不解耦”的挑战,构建未来5G/6G网络下路侧开放基础架构的事实标准,更好服务智能的车和行动的人。
经过数月的策划和筹备,OpenV2X A版本已经代码发布,种子源码在Gitee和Github上正式开放。目前,OpenV2X开源项目正在不断完善自身,欢迎产业界专家和开源爱好者,一起攻克车路协同领域的难点和挑战,共建基于C-V2X开放车路协同基础架构。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。