分析师认为,云巨头的Graviton是一步好棋,将迫使竞争对手不得不跟进。
根据台湾研究公司TrendForce发布的一份报告,云服务商对于Arm兼容型处理器的接纳度将持续提升。预计到2025年,Arm架构在数据中心服务器内的占比将增长至22%。
本周二发布的这份报告提到,亚马逊云科技(AWS)在Arm云实例方面的持续探索,成为这种CPU架构在服务器市场上保持增长的主要驱动力。AWS一动,其他云服务竞争厂商也将被迫跟进、开发自己的Arm原研芯片。但这份报告并未提到上月传出的英伟达收购Arm失败的消息,也未讨论Arm上市计划可能带来的影响。
无论如何,这些内部原研的Arm兼容芯片项目将给各云服务商带来更大的灵活空间,帮助他们以从容且多样的方式解决AI及高性能计算等领域的现实需求。正因为如此,TrendForce才认定Arm架构将在数据中心拿下更高的份额占比。
报告提到,“如果测试通过,这些项目预计将从2025年起在数据中心内大规模落地。”
TrendForce还指出,AWS推出的Arm处理器在2021年内已经占据整体服务器部署的15%,预计今年内将超过20%。目前尚不清楚这样的比例是不是完全由AWS自主研发的Arm Graviton芯片所贡献,但TrendForce强调,除此之外还有更多驱动因素在帮助Arm在数据中心市场上攻城掠地。
报告表示,地缘政治问题及各国对于将数据强制保存在境内的现实需求,也给Arm阵营带来新的可能性。目前,众多电信运营商和云服务商都在开发基于Arm架构的“微型数据中心”。根据TrendForce的介绍,Arm Neoverse服务器CPU方案就非常适合这类边缘计算环境,同时也有足够的实力在云服务商的“超大规模数据中心”内占据一席之地。
但无论是边缘计算还是大型数据中心,在其中占据主导的仍然是以英特尔与AMD为代表的x86架构阵营。因此,Arm CPU进入企业级数据中心的步伐可能会较为迟缓。考虑到这一点,TrendForce预计到2025年,市场上暂时不会出现真正具备竞争力的企业级Arm服务器产品。
AWS于2018年首次上线了基于自研Graviton芯片的云实例,据称这是一套比x86云实例更加高效的替代性方案。顺带一提,虽然x86阵营的绝对领导者仍然是英特尔,但企业客户正越来越多选择AMD芯片。
Graviton家族源自AWS于2015年收购的以色列芯片初创公司Annapurna Labs,最新成员、新一代原研处理器Graviton 3也已经于去年12月进入预览阶段。Graviton 3承诺在EC2实例中提供高于Graviton 2芯片20%至80%的性能提升,同时将延迟降低35%。
但AWS在Arm CPU领域做出的探索绝不止于Graviton。作为全球公有云领域的头羊,AWS最近还尝试采用苹果M1 CPU构建能够运行Mac虚拟机的EC2实例。不过考虑到这部分实例的受众规模不大,所以相关尝试应该不会在AWS的整体数据中心内占据显著比例。
TrendForce没有透露AWS的哪些竞争对手也在内部开发Arm芯片,但根据其他报道,截至2020年12月,微软已经在为Azure数据中心及Surface PC设计自己的Arm架构芯片。
另一方面,谷歌也在去年公布计划,打算将定制芯片的探索范围由原研张量处理单元(TPU)扩展至服务器芯片。但还不清楚谷歌的这项计划会不会用到Arm指令集架构。
去年秋季,有报道称中国零售与云服务巨头阿里巴巴也推出了自己的Arm服务器处理器。也许此举将支撑起中国建立高性能数据中心供应链的远景目标。而2019年也有报道提到,中国科技巨头华为也在着手开发基于Arm架构的服务器芯片。
除了阿里巴巴,还有其他几家云服务商也在尝试设计Arm架构CPU,其中就包括芯片初创公司Ampere Computing——其Altra CPU产品已经得到甲骨文和Equinix的实际应用。另外,中国市场上的腾讯云、京东云和UCloud也都用到了Ampere的芯片。
值得一提的是,目前各方还未能就Arm今后几年在服务器领域的潜在规模达成共识。研究公司Omdia去年8月的报告就没那么乐观,认为到2025年Arm芯片在服务器总体市场上的占比仅为14%。
TrendForce的报告也没有提到芯片世界中的另一股重要力量——RISC-V。这是一种与Arm直接竞争的替代性开源芯片指令集架构。但这也可以理解,毕竟RISC-V目前仍处于象征意义大于实质意义的阶段。全球最大的RISC-V芯片设计公司SiFive就在最近的采访中坦言,至少在未来几年内市场上还不会出现RISC-V服务器芯片。另一家RISC-V芯片设计厂商Ventana Micro Systems也表示自己的服务器芯片制造计划还需要几年时间才能落地。
好文章,需要你的鼓励
清华大学研究团队提出了一种名为"硬负样本对比学习"的创新方法,显著提升了大型多模态模型在几何理解与推理方面的能力。通过构建图像和文本两类负样本,以及开发MMCLIP训练策略,他们的MMGeoLM模型在四个几何基准测试中表现卓越,甚至以7B参数规模与GPT-4o相媲美。实验证明,仅4K个真实图像负样本的效果就超过了100K个文本负样本,为AI细粒度视觉理解开辟了新路径。
《离散马尔可夫桥》研究提出了一种新型离散数据表示学习框架,克服了传统离散扩散模型使用固定转移矩阵的局限。该框架包含矩阵学习和分数学习两个核心组件,能够自适应学习转移率矩阵并有效重建原始数据分布。理论分析证明了其有效性和收敛性,而在Text8和CIFAR-10数据集上的实验展示了其优越性能,证明了这一方法作为离散表示学习统一框架的潜力。
这项由华盛顿大学和新加坡国立大学研究团队提出的ScaleKV技术,针对视觉自回归模型中的内存瓶颈问题提供了创新解决方案。研究发现不同变压器层具有不同的缓存需求,将它们分为需要大量历史信息的"起草者"和专注于当前细节的"精细器",实现了尺度感知的KV缓存分配。实验表明,该方法能将Infinity-8B模型的内存需求从85GB减少到8.5GB,同时保持生成质量几乎不变,为高分辨率AI图像生成的普及应用铺平了道路。
这项研究提出了一种名为INTUITOR的创新方法,让大语言模型无需外部奖励即可自主学习推理能力。研究者利用模型自身的"自我确定性"作为唯一奖励信号,替代传统需要人工标注或答案验证的方法。实验表明,该方法在数学推理上与使用标准答案的方法相当,并在代码生成等跨领域任务上展现出更好的泛化能力。这为开发能在缺乏外部验证的情况下自我提升的AI系统开辟了新途径,对未来自主学习AI具有深远影响。