2023年11月1日,杭州 —— 近日,英特尔与阿里巴巴在2023云栖大会上共同展示了双方在云计算、网络与边缘等领域从技术到实践应用的丰富合作与多元创新,并首次披露了即将发布的第五代英特尔®至强®可扩展处理器在阿里云实例中的应用及其实践性能。
英特尔公司市场营销集团副总裁兼中国区云与行业解决方案部总经理梁雅莉表示,“以人工智能技术为代表的前沿科技,正在为由芯片和软件推动的‘芯经济’注入全新动力。为进一步推动‘芯经济’的蓬勃发展,英特尔不仅遵循摩尔定律稳步推进‘四年五个制程节点’计划,也在客户端和数据中心的全栈产品中加入AI能力。面对‘芯经济’带来的广阔机遇,英特尔也将持续携手阿里巴巴在云、边、端全面发力,推动创新落地和智能化发展。”
阿里云基础设施事业部总经理周明指出,“2023年人工智能如火如荼,云计算正在让人工智能等前沿应用普惠,创新的步伐加速。作为世界领先的云服务商,阿里云始终致力于为用户提供具备高价值的差异化服务。而英特尔凭借强大的产品技术领导力和持续不断的创新,为数据中心领域持续增长的算力需求和广泛的业务场景提供有力支持。基于相同的技术创新理念,双方将持续加强前沿技术探索,从而为用户提供更优质的云服务。”
在近两日举办的阿里技术主论坛和云原生主题论坛上,阿里云弹性计算产品线负责人张献涛在演讲中首次披露并强调,基于即将发布的第五代英特尔®至强®可扩展处理器,阿里云第八代企业级ECS实例g8i算力大幅升级,其整个端到端的性能,在媒体处理、网站应用和AI的场景上性能均有大幅提升。
值得注意的是,英特尔始终致力于与阿里云一道以产品技术创新,推动云计算发展。今年,在内置IAA、QAT、AMX、TDX等诸多加速器的第四代英特尔®至强®可扩展处理器的加持下,g8i实例不仅实现了算力和安全性的大幅提升,也凭借优化的运行速度、网络连接,为客户在阿里云环境中的大规模部署和迁移提供助力。而为进一步加速释放云计算潜能,英特尔更携手龙蜥社区共创云软件生态,不仅使龙蜥成为全球首个完整支持第四代英特尔®至强®可扩展处理器平台特性的操作系统开源社区,而且也通过开源的方式为云原生、人工智能和机密计算等提速。
随着数字化转型步入“深水区”,新场景、新应用等也在催生边缘及网络领域的新机遇。同时,在以ChatGPT为代表的人工智能大模型技术迎来革命性发展的当下,如何将人工智能技术部署到边缘,从而加速企业在边缘人工智能领域的实践落地,也带来了诸多挑战。面向机遇与挑战,英特尔致力于基于边缘芯片处理器打造边缘基础设备与平台软件套件,并结合边缘人工智能与应用软件套件,为广大生态伙伴和最终用户提供开放式边缘应用与解决方案。
在半导体对经济发展至关重要的今天,为满足全球对先进半导体制造日益增长的需求,英特尔成立了英特尔代工服务事业部(IFS),其不仅背靠英特尔领先的制程和封装技术、以及强大的合作伙伴生态系统,更支持x86内核、ARM和RISC-V生态系统IP的生产,旨在打造极其广泛的差异化IP组合,包括所有领先的指令集架构(ISA),从而为客户提供开放的系统级代工服务。自英特尔代工服务事业部成立以来,不仅达成多个逾40亿美金的合作,并广受生态伙伴支持,未来英特尔也将持续与生态伙伴深化合作,打造全新的世界领先代工服务。
一直以来,英特尔始终致力于以云、边、端的软硬件协同技术创新,以及在全栈硬件产品中注入人工智能技术的方式,进一步加速“芯经济”发展。未来,英特尔也将继续发挥自身的技术优势,持续携手阿里巴巴深化合作,以“芯能量”,创造无限可能。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。