在深处技术变革的今天,技术创新的重要性不言而喻。而在近日举行的英特尔On技术创新峰会上,一系列的新产品、开发者工具和技术让笔者感到了一种英特尔”王者归来“的感觉。
重新回归技术本色
我们不妨先集中展示一下这次峰会上英特尔的重磅发布:
针对开发者重点投入计划,包含一个升级、统一以及更加全面的开发者专区(Developer Zone)、oneAPI 2022工具包和全新的oneAPI卓越中心(CoE),所有这些都旨在优化对资源的获取,并简化跨中央处理器(CPU)和加速器的架构开发。
围绕四大超级技术力量的一系列创新产品,包括第12代英特尔酷睿处理器、英特尔锐炫Alchemist显卡SoC系列、下一代英特尔至强可扩展处理器(代号为“Sapphire Rapids”)、英特尔Intelligent Fabric智能结构(基于ASIC的IPU,代号为“Mount Evans;英特尔Tofino 3 Intel fabric processor,IFP)等。
或许大家对应四大超级技术力量还不太熟悉,这是英特尔首席执行官帕特·基辛格提出来的,具体是指无所不在的计算、无处不在的连接、从云到边缘的基础设施、人工智能。
在提出四大超级技术力量之前,英特尔推出了IDM2.0战略,即巩固自有芯片制造能力、加强和第三方代工厂的外包合作、承接晶圆代工及封装业务等。
英特尔公司高级副总裁、英特尔中国区董事长王锐表示,英特尔IDM 2.0战略的核心是以技术和产品的领导力,重新实现制造、创新和产品的全面领先。”四大超级技术力量,加上英特尔不断创新前进的步伐,开拓了非常广泛的想象空间。“
从云到端的全面创新
未来,从云转到边缘计算呈现一个爆发性的增长,而英特尔拥有业界最完整的产品,以及从云到端的解决方案,解决客户的不同问题。
英特尔公司市场营销集团副总裁兼中国区数据中心销售总经理陈葆立说,除了完整的芯片产品之外,英特尔还与生态伙伴、客户一起打造完整的方案,真正支持最终用户的需求。
众所周知,在数据中心市场,英特尔至强是整个云计算的心脏。特别是4月份随着第三代至强可扩展处理器的推出,国内领先的行业客户、互联网、云服务公司都已推出基于第三代至强可扩展处理器的新服务。
创新产品需要与头部用户一起实现软件和硬件调优,方便企业行业客户采纳。所以创新产品并不是简单发布一个全新产品,而通过渐进式的模式扩大产品的覆盖度。
陈葆立表示,到今年年底,在大客户中,已有40%-50%客户切换到第三代至强可扩展处理器,明年第三代至强可扩展处理器将是市场主流产品。
除了CPU产品,我们看到英特尔也在向XPU发展,例如IPU。如今云服务厂商数据中心越来越大,服务器越来越多。在这样的情况下,节点到节点的连接也会越来越复杂,而智能网卡可以实现多点到多点的连接,也可以更好进行管理。
虽然我们可以使用CPU进行连接的管理,而是它会消耗掉CPU 20%-30%的算力。而采用IPU独立芯片可以释放CPU 100%的算力来实现真正最终用户想要运行的功能,不管是数据库还是大数据,或者人工智能运算。
针对边缘侧的算力需求,英特尔推出高密度、低功耗至强D处理器;针对高密集的人工智能计算,英特尔将会推出数据中心GPU。
除了硬件产品,我们看到英特尔在软件开发方面的投入也非常大,比如OneAPI提供跨芯片的软件工具包,开发者仅编写一次代码,就能在多个平台运行,而且这个平台并不是局限在英特尔平台。
陈葆立表示,英特尔的优点是能够提供全面的产品,并可以把整个方案打包。客户需要的不是一个产品,而是整个方案。”我们希望通过全栈式软硬件产品,并与合作伙伴合作发展出基于英特尔产品的可靠性更高、更稳定、更适合大规模部署的解决方案。“
其实英特尔精选解决方案就是这种理念的具体落地。”我们会一如既往持续深耕和构建生态,在中国各界合作伙伴的努力下,大家一同创新,支持中国的企业加速数字化。“陈葆立最后说。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。