英特尔全球渠道负责人Trevor Vickers表示,芯片巨头英特尔的“开放”AI堆栈是与竞争对手Nvidia相比的一大特点,让英特尔能够利用无处不在的至强CPU,在快速增长的推理领域实现增长。
Vickers表示:“对我们来说,问题在于如何创建这些具有弹性的、安全的、高性能和开放的生态系统,在我看来,这是我们向合作伙伴提供的服务的一个重要组成部分。”今年1月,Vickers就任英特尔副总裁、全球合作伙伴与支持部门总经理。
“对我来说,这就是等式中的一个差异化因素。我们希望拥有一个开放的AI堆栈。我们希望在将产品推向市场时秉持‘一次编写,随处交付’的精神。”
Vickers所说的“一次编写,随处交付”,指的是英特尔的oneAPI开放标准,该标准允许开发人员对不同类型的处理器使用单一的编程模型,无论是英特尔CPU、还是由英特尔或竞争对手制造的GPU,这和Nvidia产品的专有性形成鲜明对比,Nvidia的CUDA平台仅支持Nvidia设计的处理器。
尽管由于生成式AI开发推动数据中心GPU收入飙升,使得去年Nvidia的年收入超过了英特尔,但英特尔希望通过“AI无处不在”的战略进行反击,这项战略不仅涉及Gaudi处理器和数据中心GPU等加速器芯片,还涉及英特尔的CPU——无论是用于服务器的至强还是用于PC的Core Ultra。
Vickers表示,他和他的团队一直在与合作伙伴合作构建AI解决方案,利用数据中心“无处不在”的至强处理器。英特尔认为,这些芯片更广泛的、在AI模型上对实时应用运行推理的组织来说更加经济和实用。
“我之前和印度一家大型GSI(全球系统集成商)合作伙伴以及一家当地ISV(独立软件供应商)进行了通话,他们提出了一种解决方案,这个解决方案将采用150亿个或更少的参数模型,并且通过对他们的硬件——也就是至强——进行优化,可以在具有可比性能的情况下大幅降低成本和功耗,”他说。
另一个例子是ISV合作伙伴Numenta,该公司正在和美国航空(American Airlines)合作进行一项AI概念验证。
Vickers表示:“在减少内存占用、降低功耗以及扩展能力方面,结果相当惊人,因为他们已经在基础设施中部署了至强。这是一个非常引人注目的故事,我们将会做更多这样的事情。”
英特尔表示,用于推理的CPU中有高达70%是至强处理器,但Vickers说,英特尔还有更多工作要做以吸引更广泛的合作伙伴支持英特尔利用CPU推动此类工作负载。
他说:“我认为我们将与合作伙伴一起做越来越多的事情,将[概念验证]真正投入开发中,看看什么是一个好的、可行的解决方案,让他们也许可以利用他们已有的基础设施。”
Vickers在接受采访的过程中还谈到了如何让合作伙伴支持英特尔新兴的,但不断增长的软件和服务业务,以及英特尔合作伙伴联盟中的新资源等等。
开放的生态系统是什么?
对我们来说,问题在于我们如何创建这些具有弹性的、安全的、高性能和开放的生态系统,在我看来,这是我们与合作伙伴提供的服务的一个重要组成部分。对我来说,这就是等式中的一个差异化因素。我们希望拥有一个开放的AI堆栈。我们希望在将产品推向市场时秉持“一次编写,随处交付”的精神。异构计算对我们来说真的非常重要。
未来,我们想要走向的是基于价值的销售、或者基于结果的销售这整个概念。每个人都知道我们的历史,以前我们是一次性交易硬件,只卖一次,这很棒,这是一个关键因素。
我们渴望更多地涉足企业软件、第二方软件,提供实际的解决方案,深入挖掘,帮助我们的合作伙伴实际解决实际问题。即使在销售和营销团队内部,这对我们来说也是一个相当大的思维定势转变和文化范式转变。过去一两年这件事情一直在进行中,但现在将要真正地运转起来,并成为我们更加关注的一个焦点。
考虑到英特尔提倡的是开放的AI生态系统,那么如果全力支持Nvidia的“专有”AI战略的话,会存在怎样的危险?
为了实现我们都希望看到的大规模部署,成本将变得非常重要。稀缺是一个问题。在许多情况下,你需要无处不在的可用的基础设施,需要软件开发人员的经验。我们认为,当你和我们合作的时候,你将带来多种不同的解决方案、软件堆栈、操作系统、不同的应用和不同的运行时间。我们也确实会从你的接入点(可能是基于Meteor Lake或者Core Ultra的PC)英特尔占据领导地位的边缘、一直到数据中心。
英特尔在巴塞罗那世界移动大会上宣布推出用于扩展AI应用的新边缘平台。这方面会有什么渠道机会吗?
这是位于具有oneAPI [英特尔统一编程模型]的标准硬件之上的,整体目标是让你更容易地获得解决方案,因为它不是专有的封闭堆栈。
我认为这将是一个很大的机会。我们还处于早期阶段,所以现在还不是过度推销的时候。在英特尔,我们在软件领域进行了大量工作,但方式却非常不同。现在,我们更加重视这种解决方案将有助于英特尔内部COE [卓越中心]的定义,并且我们将相当明智地决定我们想要支持多少个解决方案,因为我们想要保持专注。那么与硬件配合的实际软件解决方案是什么,这种心态将会更加普遍。
在和合作伙伴一起销售解决方案方面,渠道计划有什么变化吗?
销售解决方案方面的想法,是要把我们的IP集成到堆栈中,这个堆栈可以是第一方软件、第三方软件或者服务,例如如何管理一组服务器,或者是否有一个VMI [虚拟机接口]针对我们硬件中的某些晶体管进行了优化,这些晶体管不会被CSP [云服务提供商]暴露。在这个领域我们可以做很多事情,我们愿意和合作伙伴一起进行更多的实验。
我们知道[软件和服务]是一种不同的销售方式,参与度是不同的。最终我们认为,通过与我们的客户群和合作伙伴的合作,我们可以建立更持久、更有粘性的关系。显然,我们正在努力实现对我们双方都有利的结果。这听起来像是陈词滥调,但却是双赢的。
巴塞罗那世界移动通信大会有哪些亮点?
巴塞罗那MWC的一个特色主题是AI无处不在的整体概念。我们非常兴奋,因为我们主导了Core Ultra产品线的商业发布,这款产品之前名为Meteor Lake。
我们的目标是出售大量这些产品并将其交给我们的合作伙伴,看看他们能做什么。我们对和合作伙伴之间的协作感到非常兴奋,当我们向ISV合作伙伴展示NPU和芯片中的功能时,他们就可以真正开始进行开发最终让我们客户和最终用户感到兴奋的应用。我们认为,合作伙伴将在这方面发挥着巨大作用。把这一愿景变为现实,将是一种更高层次的销售。
我认为,在经典的边缘领域,我们一直是一个相当强大的领导者。我们一直在通过one-API 或OpenVINO[英特尔的开源推理优化工具包]来推广开放标准,以及如何做更多的开放式模块化设计。
在数据中心,显然我们对至强的普及和普遍性感到非常兴奋,尤其是在推理场景中。如今GPU非常出色,显然这也一个非常热门的话题,但并不止于GPU,我们认为还有很多事情可以做。
我之前和印度一家大型GSI(全球系统集成商)合作伙伴以及一家当地ISV(独立软件供应商)进行了通话,他们提出了一种解决方案,这个解决方案将采用150亿个或更少的参数模型,并且通过对他们的硬件——也就是至强——进行优化,可以在具有可比性能的情况下大幅降低成本和功耗。
另一个例子是ISV合作伙伴Numenta,该公司正在和美国航空(American Airlines)合作开展了一项大型计划,研究如何通过扩展部分AI POC来实际降低成本,从而减少内存占用、降低功耗和提高扩展能力,因为他们已经在基础设施中部署了至强。这是一个非常引人注目的故事,我们将会做更多这样的事情,我们会使用这些加速器。
合作伙伴现在准备好销售AI解决方案了吗?
推理方面还有很多工作需要做。我认为我们将与合作伙伴一起做越来越多的事情,将POC真正投入开发,看看什么是一个好的、可行的解决方案,让他们能够利用他们已有的基础设施。
英特尔表示,用于推理安装的CPU中,有高达70%是至强处理器。是否已经有了大量基于至强的推理工作负载吗?
当今企业中96%的AI都是推理。这是英特尔的优势之一,有信任和安全方面的因素,我们对此感觉良好。
我们已经使用AMX [高级矩阵扩展,至强上的专用硬件块,可优化推理工作负载]进行了多代的芯片加速。因此,我们一直在考虑如何分配晶体管预算。我们有机会提高人们的认知,让你知道你能够走多远。
是否有任何具体的合作伙伴计划,通过至强推动更多推理业务?
我们的AI加速器计划就是其中之一。我们希望让更多ISV加入这项计划,然后可能与其他GSI进行匹配。然后,我们可以构建解决方案,将其移植到至强上,从三个维度显示工作负载上有何改进。至强是无处不在的。合作伙伴应该有一种利用现有资源的心态,确保他们不会过度设计。
这方面需要更多的教育。我们的AI加速器计划非常重视这一点。合作伙伴之间正在进行很多对话,关于本地ISV可以利用GSI做什么,以及他们最终可以为企业客户带来什么,这些都是令人信服的。
我们希望在目录中提供具有你所需硬件配置的解决方案,以及合作伙伴提供的最佳解决方案,例如用于视频处理或威胁预防的最佳解决方案。我们知道了!方案已经经过了优化,并且通过我们的一家合作伙伴提供,你可以通过IPA [英特尔合作伙伴联盟]获得。
好文章,需要你的鼓励
AMD CIO的职能角色早已超越典型的CIO职务,他积极支持内部产品开发,一切交付其他部门的方案都要先经过他的体验和评判。
医学生在选择专业时,应当考虑到AI将如何改变医生的岗位形态(以及获得的薪酬待遇)。再结合专业培训所对应的大量时间投入和跨专业的高门槛,这一点就更显得至关重要。
我们拥有大量数据,有很多事情要做,然后出现了一种有趣的技术——生成式AI,给他们所有人带来的影响。这种影响是巨大的,我们在这个领域正在做着惊人的工作。