在如今多元化的计算架构中,Arm架构正在从移动计算平台基础架构向更广泛的应用场景延展。
Arm高级副总裁兼终端事业部总经理Chris Bergey在2023上海世界移动通信大会(2023 MWC上海)上接受记者采访时表示,现在各个领域对于计算的需求与日俱增,包括数据中心,自动驾驶汽车以及AI等。迄今为止,Arm的合作伙伴已经交付了超过2500亿颗基于Arm架构的芯片。随着AI计算的日益发展,这样的趋势会不断加速。
赋能AI的加速发展
在Chris Bergey看来,AI应用将无处不在。
虽然目前大模型的训练更多是在云端进行,但是出于功率、隐私保护和延迟等多方面的考量,更多的AI应用和训练都将在数据存在之处进行,也就是传感器获取数据的地方。
AI和传感器结合在一起可以发挥非常强大的作用,比如应用于智慧城市的交通管理,可以减少交通拥堵,让整个城市更加安全,降低更多能耗。
而Arm所提供的一系列多样化的IP将赋能AI的加速发展,包括从Cortex-M到Cortex-A和Mali等这些针对笔记本电脑、智能手机等高端的CPU、GPU等。
目前,基于Arm架构运行的AI应用正不断推陈出新,从智能手机(Google Pixel 7的实时字幕、虚拟助手)到家用自动化设备(Amazon Echo语音助手),再到集成AI功能的冰箱,可达到节能目标。
“我们打造了前所未有的软件生态系统,1500万名开发者基于Arm架构、为Arm架构应用进行开发。这一生态系统为更广泛的社区提供平台,可以通过基于Arm的硬件一起打造AI解决方案。”Chris Bergey说。
据悉,Arm内部也在探索AI的应用,包括利用AI找出软硬件的早期漏洞。另外,在EDA领域以及利用机器语言打造芯片工具方面,借助AI更好地预测芯片的性能和物理特性等,支持产品研发工作。
终端设备的AI
现在终端上已经部署了很多机器学习功能,比如手机的面部识别、图像增强、滤镜、AR等等,都是AI推理应用在终端上的体现。随着处理器性能的越发提升,更多类似的应用会应运而生。
不过,在移动设备上实现更好的移动AI体验,我们面临三方面的挑战:高能效计算、内存带宽、高效支持AI的软件栈。
基于此,Arm推出了2023全面计算解决方案(TCS23),为智能手机推出性能最优异的移动计算平台。作为TCS23的一部分,全新Armv9 Cortex计算集群已连续三年实现两位数的性能提升。其中,新的Cortex-X4是第四代Cortex-X内核,是Arm迄今为止打造的最快速的CPU,与Cortex-X3相比,其性能提高15%,基于相同工艺的全新高能效微架构可降低功耗达40%。
而Arm GPU迄今在全球范围内的交付已经超过80亿颗,其中,Arm Mali系列GPU是目前全球出货量最大的面向移动终端的GPU。
“直播和视频会议等应用都对整体系统计算及计算效率提出了更高的要求。针对AI或者手机游戏等下一代的用例,我们已经和软件生态系统一起努力进行赋能,让他们可以使用最新一代的软件技术库,更好地利用硬件能力,实现性能的提升。”Chris Bergey说。
与中国系统紧密合作
Arm全面计算解决方案是一个易于使用、高性能、高效且优化的整体解决方案,便于合作伙伴的实施和部署。同时,TCS23也支持合作伙伴的定制化,这样他们可以开发不同的创新产品。
Chris Bergey表示,在过去的十年,Arm跟很多中国的顶级应用商店合作,助力他们迁移到64位系统应用开发,从而显著地帮助他们提高性能及强化安全性。
毋庸置疑,中国是产生下一代应用最具有创新性的地方,成立30多年以来,Arm一直与中国的生态系统保持紧密的合作。
在人才培养方面,Arm与很多大学以及行业、合作伙伴主导的一些产业联盟等机构合作,开展了很多人才联合培养的项目,比如2023年的AICAS挑战赛、开源之夏、百度飞桨黑客松。
Arm还参与了很多本地的开源社区和项目,比如TARS项目和龙蜥社区(OpenAnolis)等,通过参与全球开源社区的专业知识,推动本土的生态系统。
此外,Arm将一些全球技术进行本地化,让中国的生态系统更易于采用。比如把Arm虚拟硬件(Arm Virtual Hardware,AVH)整合到百度飞桨的PaddlePaddle模型中。
Arm不断赋能本地的创新能力,并宣布与联想合作成立在中国第一个5G解决方案实验室;Arm还与本土电信运营商等生态系统合作伙伴一起开展PoC项目。
“从云到边缘,我们看到所有领域对智能计算的需求都在呈指数级增长,而AI的普及应用,也将为此大大提速。当今,很多AI的应用已经运行在Arm架构,而未来也将如是发展。Arm一直非常重视本地生态系统的建设,我们将持续与中国的生态合作伙伴一起携手努力。”Chris Bergey最后说。
好文章,需要你的鼓励
VMware宣布将终止现有渠道合作伙伴计划,新计划采用邀请制,大幅减少授权合作伙伴数量。未受邀合作伙伴将于2025年7月15日收到不续约通知,可继续交易至10月31日。白标计划也将同时终止。此举是18个月内VMware第二次重大合作伙伴调整,旨在专注与少数核心云服务提供商深度合作。客户可能面临续约困难、服务质量下降和成本上升等影响。
StepFun公司推出的Step1X-Edit是首个能够媲美GPT-4o和Gemini2 Flash等商业模型的开源图像编辑AI。该模型通过整合多模态语言理解和扩散图像生成技术,能够处理11种编辑任务,在新构建的GEdit-Bench基准测试中表现优异,为图像编辑技术的民主化开辟了新道路。
谷歌DeepMind和伦敦大学学院研究发现,大语言模型在面对反驳时会迅速失去信心并改变答案,即使反驳是错误的。研究显示LLM既会对自己的答案过度自信,又对批评异常敏感,表现出与人类相似但又独特的认知偏差。这种行为对多轮对话AI系统构成威胁,最新信息可能对LLM推理产生不成比例的影响。
BluOrion公司开发的ZClip是一种智能梯度裁剪算法,解决了大型语言模型训练中的梯度爆炸和损失飙升问题。通过Z分数统计检测和动态调整策略,ZClip能够自适应地控制梯度幅度,相比传统固定阈值方法提升训练效率35%以上,同时显著降低训练失败风险,为大模型训练提供了更稳定、高效的解决方案。