近日,爱簿智能正式推出面向边缘场景打造的E300 AI计算模组。
作为一家专注于系统级芯片(SoC)及智能终端设备的科技创新企业,爱簿智能致力于为业界提供领先的SoC、模组及智能终端解决方案。通过深度融合先进的半导体技术和人工智能技术,为用户打造更加智能、高效的全栈AI解决方案,助力各行各业加速数智化转型。
本次推出的产品,就是搭载爱簿智能自研AI SoC芯片AB100,其具备高达50TOPS的INT8算力和102GB/s LPDDR5内存带宽,支持FP16/FP32混合精度计算,专为边缘侧高性能AI任务设计,旨在为各行业提供高算力、低延迟、强可靠的国产化AI解决方案。依托全栈AI工具链与端云协同架构,E300深度融合边缘生成式AI与计算机视觉能力,可高效加速“云-边-端”等各AI场景的应用开发,为教育、能源、医疗、金融、交通等数字经济重点行业的智能化转型赋能。


技术创新:硬核算力,赋能边缘AI计算
E300所搭载的AB100芯片,采用“全大核CPU+先进GPU+高能效NPU”的异构计算架构,提供高达50TOPS的INT8算力,支持FP16/FP32混合精度计算,并配备102GB/s高带宽LPDDR5统一内存设计,可高效处理从轻量级推理到复杂模型部署的各类AI工作负载。通过架构级能效优化,AB100实现优异的功耗控制表现,确保设备在复杂边缘环境下长时间稳定运行。
针对边缘AI场景中图像识别、视频编解码、科学计算及深度学习训练等高密度计算场景中,E300展现出了卓越的性能表现:
灵活部署:模块化设计,适配多元边缘场景
E300以创新的模块化系统设计,将强大算力浓缩于60mm×82mm的小巧模组中,集成SoC芯片、内存、电源管理单元及多种高速接口,具备出色的扩展性与适应性,可灵活部署于工业现场、户外环境等多种边缘场景。
全栈赋能:端云协同,覆盖“云边端”全场景
爱簿智能基于“芯片-系统-算法-应用”的全栈能力,构建了端云协同的智算基座,实现边缘AI的垂直优化与端云无缝协同,全面覆盖“云边端”全场景。
自主安全:打造国产可控的边缘AI平台
在数智化转型加速演进的浪潮中,算力自主可控逐渐成为产业发展的核心命题。E300搭载自研的国产AI SoC芯片AB100,构建起从硬件到软件的全栈安全。借助强大的边缘AI计算能力,E300支持数据本地处理与私有化部署,能够有效保护数据隐私与系统安全,全面满足工业、能源、水利、气象、政务、教育等关键领域对高安全性、高可靠性AI应用的严苛要求,为行业用户提供高性能、自主可控的边缘AI计算解决方案。
爱簿智能创始人兼CEO孙玉昆表示:“E300 AI计算模组的发布,是爱簿智能深耕智能计算领域的重要成果。这款全栈国产化的高性能边缘AI产品,将为各行业提供自主可控的算力新选择,加速重点行业智能化转型。未来,爱簿智能将持续以技术创新为引擎,联合产业链上下游生态伙伴,构建开放协同的智能计算新生态,推动AI算力在更多垂直场景中深度落地,为数字中国建设注入强劲动能。”
附:E300 AI模组详细参数

好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
这项由卡内基梅隆大学和东北大学联合开展的研究通过分析1322篇AI隐私论文,发现学术界92%的注意力都集中在训练数据泄露这一相对较小的威胁上,而聊天记录泄露、AI助手背叛、隐私推断和信息聚合等更严重的隐私威胁却被严重忽视,呼吁学术界和产业界重新审视AI隐私保护的优先级和策略。