在深处技术变革的今天,技术创新的重要性不言而喻。而在近日举行的英特尔On技术创新峰会上,一系列的新产品、开发者工具和技术让笔者感到了一种英特尔”王者归来“的感觉。
重新回归技术本色
我们不妨先集中展示一下这次峰会上英特尔的重磅发布:
针对开发者重点投入计划,包含一个升级、统一以及更加全面的开发者专区(Developer Zone)、oneAPI 2022工具包和全新的oneAPI卓越中心(CoE),所有这些都旨在优化对资源的获取,并简化跨中央处理器(CPU)和加速器的架构开发。
围绕四大超级技术力量的一系列创新产品,包括第12代英特尔酷睿处理器、英特尔锐炫Alchemist显卡SoC系列、下一代英特尔至强可扩展处理器(代号为“Sapphire Rapids”)、英特尔Intelligent Fabric智能结构(基于ASIC的IPU,代号为“Mount Evans;英特尔Tofino 3 Intel fabric processor,IFP)等。
或许大家对应四大超级技术力量还不太熟悉,这是英特尔首席执行官帕特·基辛格提出来的,具体是指无所不在的计算、无处不在的连接、从云到边缘的基础设施、人工智能。
在提出四大超级技术力量之前,英特尔推出了IDM2.0战略,即巩固自有芯片制造能力、加强和第三方代工厂的外包合作、承接晶圆代工及封装业务等。
英特尔公司高级副总裁、英特尔中国区董事长王锐表示,英特尔IDM 2.0战略的核心是以技术和产品的领导力,重新实现制造、创新和产品的全面领先。”四大超级技术力量,加上英特尔不断创新前进的步伐,开拓了非常广泛的想象空间。“
从云到端的全面创新
未来,从云转到边缘计算呈现一个爆发性的增长,而英特尔拥有业界最完整的产品,以及从云到端的解决方案,解决客户的不同问题。
英特尔公司市场营销集团副总裁兼中国区数据中心销售总经理陈葆立说,除了完整的芯片产品之外,英特尔还与生态伙伴、客户一起打造完整的方案,真正支持最终用户的需求。
众所周知,在数据中心市场,英特尔至强是整个云计算的心脏。特别是4月份随着第三代至强可扩展处理器的推出,国内领先的行业客户、互联网、云服务公司都已推出基于第三代至强可扩展处理器的新服务。
创新产品需要与头部用户一起实现软件和硬件调优,方便企业行业客户采纳。所以创新产品并不是简单发布一个全新产品,而通过渐进式的模式扩大产品的覆盖度。
陈葆立表示,到今年年底,在大客户中,已有40%-50%客户切换到第三代至强可扩展处理器,明年第三代至强可扩展处理器将是市场主流产品。
除了CPU产品,我们看到英特尔也在向XPU发展,例如IPU。如今云服务厂商数据中心越来越大,服务器越来越多。在这样的情况下,节点到节点的连接也会越来越复杂,而智能网卡可以实现多点到多点的连接,也可以更好进行管理。
虽然我们可以使用CPU进行连接的管理,而是它会消耗掉CPU 20%-30%的算力。而采用IPU独立芯片可以释放CPU 100%的算力来实现真正最终用户想要运行的功能,不管是数据库还是大数据,或者人工智能运算。
针对边缘侧的算力需求,英特尔推出高密度、低功耗至强D处理器;针对高密集的人工智能计算,英特尔将会推出数据中心GPU。
除了硬件产品,我们看到英特尔在软件开发方面的投入也非常大,比如OneAPI提供跨芯片的软件工具包,开发者仅编写一次代码,就能在多个平台运行,而且这个平台并不是局限在英特尔平台。
陈葆立表示,英特尔的优点是能够提供全面的产品,并可以把整个方案打包。客户需要的不是一个产品,而是整个方案。”我们希望通过全栈式软硬件产品,并与合作伙伴合作发展出基于英特尔产品的可靠性更高、更稳定、更适合大规模部署的解决方案。“
其实英特尔精选解决方案就是这种理念的具体落地。”我们会一如既往持续深耕和构建生态,在中国各界合作伙伴的努力下,大家一同创新,支持中国的企业加速数字化。“陈葆立最后说。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。