六大全球云服务巨头,现已全部加入Arm架构套餐
对Arm来说,2022年堪称艰难的一年。这家英国芯片设计商先是因传出可能被英伟达收购的消息而财务不振,随后又因监管机构的审查令交易胎死腹中。之后,Arm在制定IPO计划时决定裁撤员工,而当前的市场形势明显并不利于上市融资。
但也有好消息,云世界似乎开始对Arm敞开大门,热情欢迎这位指令集架构新成员。Google Cloud本周三就公布了首个基于Arm的云实例,并表示能够“以极具吸引力的价格,提供卓越的单线程性能”。
Google Cloud此次发布的Tau T2A虚拟机,主要面向“横向扩展的云原生工作负载”,具体搭载的是Ampere Computing基于Arm打造的Altra CPU。目前该实例已经以预览版的形式登陆美国和欧洲区域,能够为Web服务器、容器化微服务、媒体转码及大型Java应用程序等用例提供强大的性能成本比。
Google Cloud也相当期待Arm架构给云世界带来的新变化,因此计划让客户和合作伙伴在试用期内免费体验T2A虚拟机,“帮助快速推动开发”。在T2A于今年晚些时候正式上市时,Google Cloud表示还将“继续提供慷慨的试用计划,免费交付多达8个vCPU与32GB RAM。”
T2A实例属于Google Cloud Tau虚拟机家族中的一员。该家族于去年首度亮相,各实例采用AMD第三代Epyc Milan CPU。基于Arm的实例类型则支持每虚拟机最多48个vCPU及每vCPU配备4 GB内存,网络传输带宽最高可达32 Gbps。此外,该实例还提供“广泛的网络附加存储选项”。
然而,T2A也同基于AMD的T2D实例一样,存在着不少限制:不支持扩展内存、单一租户、嵌套虚拟化、不支持自定义虚拟机规模等。
虽然Google Cloud并未将Arm实例同x86实例做出任何直接性能比较,但这时候Ampere跳了出来,宣称具备32个vCPU的T2A实例在执行速度上,比采用英特尔Ice Lake芯片的同数量vCPU Google N2实例要快31%。这一结论,源自标准SPEC CPU 2017整数速率基准得分。
而根据云服务商的虚拟机定价,Ampere表示,以按需实例价格来计算,T2A实例的性价比更是比基于英特尔芯片的N2实例高出65%。
由于云环境长久以来一直依赖于x86芯片,所以我们不禁要担心基于Arm的Ampere Altra CPU到底能不能顺畅运行各类软件。
为此,Ampere也是开足马力,努力宣传自家处理器能够胜任各种云任务。在周三发布的博文中,该公司称其“基于Arm架构的服务器生态系统在过去几年当中迅速发展成熟,开源云原生软件堆栈在基于Ampere Altra的服务器上也实现了广泛测试和部署。”
Ampere公司首席产品官Jeff Wittich写道,“例如,Ampere在5种不同的云原生基础设施上,运行了超过135款流行应用程序。此举是为了确保客户对于整个Ampere软件运行环境充满信心。”
这家初创公司的服务器芯片还能够支持多个Linux版本,包括Ubuntu、Red Hat Enterprise Linux以及CentOS Stream。
Wittich指出,Ampere在官方网站上专门开设了页面,列出大量已经在Arm CPU核心上完成测试的应用程序、编程语言和其他各类软件。
Google Cloud也从部分独立软件开发商处得到了推荐,他们都表示自家产品的代码可以轻松移植至T2A。
负责提供无服务器缓存服务的初创厂商Momento公司CEO Khawaja Shams表示,“自始至终,我们一直对Arm实例的可移植性感到欣喜。T2A平台的成熟,让我们有信心在生产环境中使用这些虚拟机。”
T2A也得到了学术界的认可,哈佛大学研究助理Christoph Gorgulla表示,该实例的“更佳性价比”帮助他的团队“筛选了更多化合物,由此发现了更具希望的候选药物。”
随着基于Arm架构的云实例的陆续出现,这家英国芯片设计厂商的ISA现已得到全球六大云服务巨头的全面支持,分别为:亚马逊云科技、微软Azure、Google Cloud、阿里云、腾讯云、Oracle Cloud。其他云服务商也纷纷跟进Arm热潮,包括京东云、UCloud以及Equinix Metal等。
从目前的形势看,Arm进军云端已经成为一股不可阻挡的趋势。
正如GitHub工程师Jaana Dogan在推文中所说,这样的发展结果在十年之前根本无法想象:
如果有人在十年前问我,Arm会不会成为服务器芯片的新首选,我肯定觉得这人疯了。但现在这一切已成现实,迅速且顺畅。Graviton的成功,标志着Arm进军云基础设施的里程碑。
https://t.co/WTmFEDBsu7
—
Jaana Dogan
ヤナ ドガン (@rakyll)
2022年7月13日
要想让Arm芯片入驻服务器环境、运行Linux等操作系统,必须要在软件与硬件世界间开展大量合作,由各方就标准功能、发展方向等问题达成长期一致。也正因为如此,Arm系统(特别是在服务器用例中)的软件构建与运行方向也就明确了:必须严格按照x86的形式进行。事实也的确如此。
AWS还决定利用利用2015年收购芯片设计厂商Annapurna Labs时获得的人才,在内部原研出基于Arm架构的服务器CPU,这也为Arm在云市场上的崛起铺平了道路。目前,这位云巨头正在自家Elastic Computer Cloud实例当中使用第三代Graviton芯片,主打的也是强于x86芯片的高性价比优势。
而其他各家主流云服务商的Arm探索之旅,则都离不开另外一个名字:Ampere Computing。
由英特尔公司前高管Renee James建立的这家初创企业最近表示,Altra处理器已经得到越来越多企业和云服务商的青睐,这也证明该芯片要比英特尔或AMD处理器更适合云用例。
与Arm一样,Ampere也筹划着在合适的时间寻求上市。
虽然云世界对Arm敞开怀抱,确实合了不少已经厌倦英特尔一家独大现状的从业者们的心意,但现在的问题是,Arm和Ampere、AWS等芯片合作伙伴能不能长久把这份繁荣保持下去。毕竟英特尔和AMD都打算在不久之后推出专用云芯片,所以目前还不宜盲目乐观。另外,还有RISC-V这位闷声发大财的选手没有入场呢。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。