根据物联网市场研究机构 Berg Insight 的报告,早期的物联网 (IoT) 连接管理平台 (CMP) 是全球移动运营商和物联网移动虚拟网络运营商 (MVNO) 价值主张中的标准组件。这些平台是在市场期望被过度夸大的时期开发的,但现在市场正面临物联网连接服务的平均收入 (ARPU) 下降的挑战。
该研究报告《物联网连接管理平台和 eSIM 解决方案》指出,随着供应商专注于应对物联网连接服务 ARPU 下降的挑战,物联网 CMP 市场的动态已发生演变。这导致现有供应商退出市场,而其他供应商不得不重新思考其产品和定价策略,通常涉及分层产品和增值服务的添加。
总的来说,研究预测物联网 CMP 年收入将以 12% 的年复合增长率增长,从 2024 年的 10 亿美元增长到 2029 年的 18 亿美元。
分析师表示,物联网 CMP 领域的碎片化催生了一种新的产品类别,即连接管理编排 (CMO) 平台。这类平台通过应用程序接口集成运行在物联网 CMP 之上,最初由 IoTM Solutions 和 Simetric 等供应商引入,现在已有多个物联网 CMP 供应商和物联网 MVNO 跟进。
Berg Insight 表示,未来几年将有多个趋势对物联网 CMP 市场产生积极影响。首先,物联网 CMP 和增值服务可以帮助移动运营商从其 5G 网络基础设施中获得企业市场收入。
其次,移动运营商集团将业务集中到关键市场会导致独立移动运营商数量增加,从而扩大第三方 CMP 的目标市场。此外,新的 eSIM 物联网规范 SGP.32 将使较小的移动运营商能够利用现有的 SM-DP+ 系统为物联网市场提供 eSIM 服务。不过,Berg 提醒说,他们需要用物联网 CMP 来补充其产品。
在关键参与者方面,研究将思科列为全球最大的物联网 CMP 供应商。Berg 表示,该公司在所有主要地区都有强势地位,到 2024 年底与全球约 60 家移动运营商建立了合作关系。使用思科物联网控制中心管理的 SIM 卡数量达到约 2.62 亿。
Aeris 被评为第二大物联网 CMP 供应商,到 2024 年底拥有 28 家移动运营商合作伙伴和 8400 万个连接设备。研究强调该公司在 2023 年初接管了爱立信的物联网业务,此后成功实现了运营的现代化和精简化,同时将其传统平台和物联网加速器合并为一个单一平台。
Mavoco 近年来已成为重要参与者,年底时拥有超过 10 家移动运营商合作伙伴。Mavoco 的物联网 CMP 是云和核心无关的,允许移动运营商利用现有基础设施来经济高效地服务全球物联网客户。其他拥有大量物联网 CMP 部署的供应商包括 Comarch、诺基亚和沃达丰。
Berg 表示,物联网 CMP 也是 1NCE、1oT、Emnify、Eseye 和 FloLIVE 等供应商价值主张中的关键组件,这些供应商作为技术提供商为移动运营商和物联网 MVNO 提供服务。
AT&T 被列举为完全接受 CMO 理念的移动运营商的例子,该公司于 2024 年 11 月与 Simetric 共同宣布推出物联网控制台单一视图。
Enea 被视为提供相关产品的另一个供应商例子。其物联网 CCS 服务与现有物联网 CMP 协同工作,使移动运营商能够为其企业客户提供多租户私有 APN 服务。
新投资主要针对远程 SIM 配置平台集成、eSIM 编排和连接管理编排功能、基于机器学习的分析、安全服务以及 5G SA 支持的可编程网络功能。
好文章,需要你的鼓励
AI正在彻底改写创业规则:YC最新数据显示,10人团队12个月达成千万美元营收已成常态,"氛围编程"让技术不再是瓶颈,而创始人能否深度理解客户需求成为成败关键。当6人团队就能创造八位数收入时,我们看到的不仅是速度革命,更是对公司本质的重新定义。
这项由阿伯丁大学和格勒诺布尔阿尔卑斯大学研究者联合完成的研究揭示了大语言模型处理日期时的关键问题:现代分词器常将日期分割成无意义的碎片,如"20250312"被切分为"202"、"503"、"12",这严重影响时间推理能力。研究提出了日期碎片化率指标,创建了DATEAUGBENCH测试集,并通过内部机制分析发现,大型模型能在早期层快速"修复"碎片化日期,但其推理路径与人类理解方式显著不同,这解释了模型在处理非标准日期时的准确率下降。
MUG-Eval是KAIST和Trillion Labs联合开发的创新多语言评估框架,通过让语言模型在目标语言中进行自我对话来评估其生成能力。该方法独特之处在于不依赖语言特定工具或人工标注数据,而是通过任务完成率间接衡量语言能力。研究团队测试了8种顶级语言模型在30种语言上的表现,发现其结果与传统评估方法高度一致(相关系数>0.75)。MUG-Eval揭示了模型在低资源语言上表现显著落后,并发现英语并非评估低资源语言的最佳替代。该框架理论上支持2,102种语言,为真正包容的AI评估提供了新途径。
浙江大学研究团队开发的"自制动力训练"(Self-Braking Tuning,SBT)方法解决了大型语言模型在推理过程中的过度思考问题。该方法不依赖外部干预,而是培养模型自主识别冗余推理并适时终止的能力。研究者通过分析推理效率比率和过度思考标记比率,构建了两种数据策略:SBT-E(精确版)和SBT-D(动态版)。实验结果表明,经过训练的模型在多个数学基准测试上保持原有准确率的同时,将标记消耗减少了30%到60%,显著提高了推理效率。这项创新使AI系统能更像人类一样有效思考,为资源受限环境下的AI部署提供了新解决方案。