近日,UCloud优刻得发布自研的AI模型工厂和AI边缘盒子(UBoxAI)两款产品,通过用户可自定义算法的AI平台,以及内置多种算法、软硬件结合的AI边缘设备,打造全国产化的、云边端协同的平台型AI产品,赋能用户在多种场景下的视觉结构化AI能力,助力用户打通从AI算法到场景应用的关键环节。
UAI模型工厂 小白也能定制AI模型
UCloud AI模型工厂(Algorithm Model Factory,以下简称“UAI模型工厂”)提供从数据采集、标注、模型训练、部署的一站式AI开发能力,帮助用户实现无门槛的算法生产,快速创建标注及训练任务,测试发布,管理AI模型的全生命周期。为各行业用户提供开放的AI服务,解决AI开发门槛高的难题。
UAI模型工厂具有以下特性:
UAI模型工厂主要针对图像进行AI分析,实现图像中目标的检测定位与分类,适用于安全生产,工业质检,安防监控等场景。平台的快速入门操作流程如下:
比如,比如通用检测模型的图片上传,要求首先确认要识别的目标物体,并上传不少于100张含有这些目标物体的图片,样本越多,后期模型的效果越显著。
用户还可以创建数据标签,并标注数据。标签可以为目标名称,比如“垃圾桶”、“安全帽”、“电瓶车”等;标签也可以为物体在场景中的状态,比如“合格”、“不合格”等。
UCloud AI模型工厂后期将陆续开放模型训练能力、支持UCloud智能AI边缘盒子、GPU一体机等多种交付形式。通过算法和终端的云边协同,可以让算法更加匹配用户需求,更快速的根据用户需求进行迭代。
AI边缘盒子,内置多种实用场景算法
UCloud智能AI边缘盒子(UBoxAI)EB004A,是一款基于深度学习技术的智能边缘计算节点设备,采用国产RK3399六核64位2.0GHz处理器,具有小体型,高频率,高稳定性等特点。可接入IPC(网络摄像机)等前端设备,实现对传统监控设备的智能化改造。支持对多种行人、车辆、物品的视频结构化分析,可提供多算法模型融合、远程升级、智能运维、事件分析及报警联动服务,广泛应用于安防监控、安全生产、园区楼宇、社区养老、建筑工地等多种场景。
UCloud智能AI边缘盒子具有以下特性:
支持人脸识别、区域入侵、离岗检测、消防通道占用、电瓶车检测、火苗检测、高空抛物等20余种算法,并跟随业界需求,持续进行高频迭代。支持针对客户专用场景的算法迭代与优化。
AI边缘盒子实现了毫秒级检测速度,支持30人并发抓拍。它采用国产化芯片,搭载RK3399Pro六核高性能处理器,采用双核Cortex-A72+四核Cortex-A53构架,主频高达1.8GHz,拥有强大的通用计算性能。四核ARM高端GPU Mali-T860,集成了更多带宽压缩技术,整体性能优异。
强大的AI运算性能NPU。CPU内部集成AI神经网络处理器NPU,支持8bit/16bit运算,运算性能高达3.0TOPS,相较于传统GPU作为AI运算单元的的大型芯片方案,NPU的功耗仅仅是GPU的1%,具有极高的算力效能比。
3)强悍硬件
UCloud自研的边缘硬件,配置优质金属外壳,隐蔽式引线孔,无风扇设计,铝合金结构导热,高效降温,通过了60℃高温老化测试,7X24小时稳定运行。
4)云边协同
基于嵌入式高可靠架构设计,AI边缘盒子搭配AI模型工厂(训练及部署平台),可实现硬件与算法的持续集成和持续开发,灵活加载、更新算法引擎、模型、应用及授权。支持部署第三方算法。
通过云边端协同的产品架构,UCloud优刻得致力于开放视频结构化AI能力,构建持续升级的AI平台服务,赋能企业用户、集成商、代理商等合作伙伴,打通算法到场景的关键环节,推动AI应用更大范围落地。
好文章,需要你的鼓励
大模型时代,玛丽·米克尔(Mary Meeker)的名字可能大家不一定熟悉,但是在互联网时代,这位被可被誉为“互联网女皇”的。她是美国风险投资家和前华尔街证券分析师,专注于互联网及新兴技术领域。玛丽·米克尔(Mary Meeker)发了一份340页的《人工智能趋势报告》,粗粗看了一下,并没有非常轰动的观点,但是数据比较全面
北京大学与小红书公司联合研究团队提出的Uni-Instruct框架,成功统一了10多种现有单步扩散蒸馏方法。该框架基于新颖的f-散度扩散扩展理论,通过可计算的等价损失函数训练单步扩散模型。实验表明,Uni-Instruct在CIFAR10和ImageNet 64×64数据集上创造了新的单步生成记录,FID分别达到1.46和1.02,甚至超越了其79步教师模型。研究还成功将该方法应用于文本到3D生成任务,展示了统一框架在提升生成质量和效率方面的巨大潜力。
毫无疑问,Agent,也就是智能体已经预定了今年的最火AI关键词。不知道明年会不会是AGI呢,既然OpenAI和Anthropic的预测都是在2027年左右。而在Agent领域,非常有发言权的一位就是吴恩达。LangChain前不久的开发者活动Interrupt上,LangChain创始人Harrison Chase邀请了吴恩达专门做了一场对话
这篇研究介绍了KVzip,一种创新的查询无关KV缓存压缩方法,通过上下文重建机制为大型语言模型提供高效存储解决方案。该技术能将KV缓存大小减少394倍,同时提高解码速度约2倍,在各种任务上性能几乎不受影响。不同于传统查询相关的压缩方法,KVzip创建可在多种查询场景下重用的通用压缩缓存,特别适合个性化AI助手和企业信息检索系统。研究在LLaMA3.1-8B、Qwen2.5-14B和Gemma3-12B等多种模型上进行了验证,处理长度高达17万词元的文本,并能与KV缓存量化等其他优化技术无缝集成。