AES-100边缘智能服务器,颠覆传统服务器,架构让人工智能边缘部署更轻松
中国上海 – 2022年6月16日
全球领先的边缘计算解决方案提供商—凌华科技推出基于华为Ascend Atlas200的全新边缘智能服务器AES-100,突破固有服务器的设计理念,采用分布式AI节点加弹性灵活的处理器设计方案,可在紧凑的1U空间内布置多路边缘处理单元,也可以根据场景和需求不同搭配不同的CPU模块,适用于广泛的AI边缘应用。

AES-100视频分析服务器架构图

产品亮点
与传统的集中式算力架构相比,AES-100采用的分布式多路AI节点能够有效地降低硬件成本。
|
算力架构 |
传统集中式算力架构 |
分布式算力架构 |
|
产品特点 |
CPU+GPU的异构计算,多个GPU通过PCIE链接到两颗处理器,如:双路4PU服务器、双路8GPU服务器; |
每颗AI SOC芯片是一个完整的小算力节点,配置独立的CPU、AI核心、编解码核心、显存、存储和操作系统; |
|
CPU主要职责 |
负责数据预处理,如视频软解码,CPU性能要求较高,根据GPU数量增加,CPU的性能也要增加; |
系统CPU:负责任务调度,对CPU性能要求不高; SOC CPU:负责数据预处理; 编解码核心:负责视频编解码; |
|
内存主要职责 |
与GPU显存之间数据交换,一般配置的内存容量要大于GPU的显存总容量,GPU数量越多,需要配置的内存容量也越大; |
系统内存:负责任务调度,对内存容量要求不高; SOC 内存:相当于显存,用于数据交换; |
|
成本对比 |
CPU和内存的性能要求高,成本占比高 |
CPU和内存的性能要求低,成本占比低 |
在高算力的场景下,采用分布式算力架构的硬件成本可大幅度下降。AES-100可以广泛应用在城市道路对行人、机动车以及非机动车的特征结构化数据分析,可极大提高在海量视频中对目标的查找速度;监所等特殊场合发生的一场行为进行检测,并及时发出报警,有效提升视频监控的价值,保障工作人员及在押人员的安全。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。