在如今多元化的计算架构中,Arm架构正在从移动计算平台基础架构向更广泛的应用场景延展。
Arm高级副总裁兼终端事业部总经理Chris Bergey在2023上海世界移动通信大会(2023 MWC上海)上接受记者采访时表示,现在各个领域对于计算的需求与日俱增,包括数据中心,自动驾驶汽车以及AI等。迄今为止,Arm的合作伙伴已经交付了超过2500亿颗基于Arm架构的芯片。随着AI计算的日益发展,这样的趋势会不断加速。
赋能AI的加速发展
在Chris Bergey看来,AI应用将无处不在。
虽然目前大模型的训练更多是在云端进行,但是出于功率、隐私保护和延迟等多方面的考量,更多的AI应用和训练都将在数据存在之处进行,也就是传感器获取数据的地方。
AI和传感器结合在一起可以发挥非常强大的作用,比如应用于智慧城市的交通管理,可以减少交通拥堵,让整个城市更加安全,降低更多能耗。
而Arm所提供的一系列多样化的IP将赋能AI的加速发展,包括从Cortex-M到Cortex-A和Mali等这些针对笔记本电脑、智能手机等高端的CPU、GPU等。
目前,基于Arm架构运行的AI应用正不断推陈出新,从智能手机(Google Pixel 7的实时字幕、虚拟助手)到家用自动化设备(Amazon Echo语音助手),再到集成AI功能的冰箱,可达到节能目标。
“我们打造了前所未有的软件生态系统,1500万名开发者基于Arm架构、为Arm架构应用进行开发。这一生态系统为更广泛的社区提供平台,可以通过基于Arm的硬件一起打造AI解决方案。”Chris Bergey说。
据悉,Arm内部也在探索AI的应用,包括利用AI找出软硬件的早期漏洞。另外,在EDA领域以及利用机器语言打造芯片工具方面,借助AI更好地预测芯片的性能和物理特性等,支持产品研发工作。
终端设备的AI
现在终端上已经部署了很多机器学习功能,比如手机的面部识别、图像增强、滤镜、AR等等,都是AI推理应用在终端上的体现。随着处理器性能的越发提升,更多类似的应用会应运而生。
不过,在移动设备上实现更好的移动AI体验,我们面临三方面的挑战:高能效计算、内存带宽、高效支持AI的软件栈。
基于此,Arm推出了2023全面计算解决方案(TCS23),为智能手机推出性能最优异的移动计算平台。作为TCS23的一部分,全新Armv9 Cortex计算集群已连续三年实现两位数的性能提升。其中,新的Cortex-X4是第四代Cortex-X内核,是Arm迄今为止打造的最快速的CPU,与Cortex-X3相比,其性能提高15%,基于相同工艺的全新高能效微架构可降低功耗达40%。
而Arm GPU迄今在全球范围内的交付已经超过80亿颗,其中,Arm Mali系列GPU是目前全球出货量最大的面向移动终端的GPU。
“直播和视频会议等应用都对整体系统计算及计算效率提出了更高的要求。针对AI或者手机游戏等下一代的用例,我们已经和软件生态系统一起努力进行赋能,让他们可以使用最新一代的软件技术库,更好地利用硬件能力,实现性能的提升。”Chris Bergey说。
与中国系统紧密合作
Arm全面计算解决方案是一个易于使用、高性能、高效且优化的整体解决方案,便于合作伙伴的实施和部署。同时,TCS23也支持合作伙伴的定制化,这样他们可以开发不同的创新产品。
Chris Bergey表示,在过去的十年,Arm跟很多中国的顶级应用商店合作,助力他们迁移到64位系统应用开发,从而显著地帮助他们提高性能及强化安全性。
毋庸置疑,中国是产生下一代应用最具有创新性的地方,成立30多年以来,Arm一直与中国的生态系统保持紧密的合作。
在人才培养方面,Arm与很多大学以及行业、合作伙伴主导的一些产业联盟等机构合作,开展了很多人才联合培养的项目,比如2023年的AICAS挑战赛、开源之夏、百度飞桨黑客松。
Arm还参与了很多本地的开源社区和项目,比如TARS项目和龙蜥社区(OpenAnolis)等,通过参与全球开源社区的专业知识,推动本土的生态系统。
此外,Arm将一些全球技术进行本地化,让中国的生态系统更易于采用。比如把Arm虚拟硬件(Arm Virtual Hardware,AVH)整合到百度飞桨的PaddlePaddle模型中。
Arm不断赋能本地的创新能力,并宣布与联想合作成立在中国第一个5G解决方案实验室;Arm还与本土电信运营商等生态系统合作伙伴一起开展PoC项目。
“从云到边缘,我们看到所有领域对智能计算的需求都在呈指数级增长,而AI的普及应用,也将为此大大提速。当今,很多AI的应用已经运行在Arm架构,而未来也将如是发展。Arm一直非常重视本地生态系统的建设,我们将持续与中国的生态合作伙伴一起携手努力。”Chris Bergey最后说。
好文章,需要你的鼓励
CloudBees首席执行官Anuj Kapur表示,AI可能重新测试DevOps的基础假设,但警告不要为追求效率而创建黑盒代码。他指出,一些因担心错失机会而匆忙采用AI生成代码的客户正开始放缓步伐,变得更加谨慎。Kapur认为,将整代软件外包给提示工程将创建非人类生成的黑盒代码,虽然效率高但质量、测试覆盖率和漏洞问题值得担忧。
韩国汉阳大学联合高通AI研究院开发出InfiniPot-V框架,解决了移动设备处理长视频时的内存限制问题。该技术通过时间冗余消除和语义重要性保留两种策略,将存储需求压缩至原来的12%,同时保持高准确性,让手机和AR眼镜也能实时理解超长视频内容。
数据网络安全公司Rubrik宣布收购AI初创公司Predibase,交易金额在1-5亿美元之间。Predibase专注于帮助企业训练和微调开源AI模型。此次收购将使Rubrik用户能够通过Amazon Bedrock、Azure OpenAI和Google Agentspace等平台加速构建AI智能体。这是继Salesforce、Snowflake等公司之后,又一家通过收购来增强AI智能体技术栈的企业。
纽约大学研究团队通过INT-ACT测试套件全面评估了当前先进的视觉-语言-动作机器人模型,发现了一个普遍存在的"意图-行动差距"问题:机器人能够正确理解任务和识别物体,但在实际动作执行时频频失败。研究还揭示了端到端训练会损害原有语言理解能力,以及多模态挑战下的推理脆弱性,为未来机器人技术发展提供了重要指导。