英特尔首席执行官Pat Gelsinger表示,在英特尔从竞争对手Nvidia手中抢夺市场份额的过程中,让渠道合作伙伴能够销售英特尔人工智能硬件和软件解决方案组合是一个“优先事项”。
在担任英特尔首席执行官两年多之后,这位半导体资深人士在今年第三届英特尔年度创新活动上,在为说服合作伙伴、开发人员和客户在其人工智能产品上构建解决方案而进行的魅力攻势中发表了上述言论。
“显然,这是我们的首要任务,特别是我们的企业和云销售团队,他们的首要任务是我们的人工智能产品,”他在和记者的问答环节中这样说道。
这些产品包括具有AI功能的英特尔Xeon Scalable数据中心CPU,他表示,由于这些CPU针对实时应用在AI模型上运行推理负载的企业部署中,具有“非常差异化的功能”,因此在Xeon产品销售中“占据了更大的份额”。
英特尔还大力推广了他们的Gaudi2深度学习处理器和Max系列GPU,这些处理器都是为那些在数据中心内具有更大数据集的人工智能工作负载(例如训练大型语言模型)而构建的。
英特尔还计划借助即将推出的Core Ultra大力推动PC上的人工智能,这款处理器的CPU、GPU和神经处理单元可以处理各种人工智能工作负载。
“这就是渠道计划发挥作用的地方,[部署]现场资源,与渠道合作伙伴合作,直接触达最终客户,”Gelsinger说。
他还表示,对于那些销售英特尔人工智能解决方案的合作伙伴来说,英特尔不断扩展的软件开发工具集(例如Intel Developer Cloud和oneAPI编程模型)将成为他们的一个“规模化机制”。
虽然Nvidia凭借自己的GPU、系统和软件保持着在人工智能计算市场的领导者地位,但Gelsinger表示,“业界对一个好的替代方案是很感兴趣的”。
他补充说,这对英特尔的前景来说是个好消息,因为英特尔“拥有来自市场的传统信心”,认为这是“我们可以信任的开放替代方案”,因为它专注于通过开放API打造一个“更广泛的生态系统”。
Gelsinger在谈到Nvidia的时候表示:“我认为这就是面对一个非常专有的替代方案时要采取的做法,我们将通过渠道合作伙伴、通过真正覆盖整个领域的合作伙伴生态系统在全球范围内获得良好的发展势头。”
一家全球IT服务公司的高管表示,Intel Innovation活动发布的一系列人工智能硬件和软件公告表明,英特尔在致力于从Nvidia手中抢夺市场份额方面“几乎已经开足马力”。
“英特尔的竞争对手已经占据了大量的认知度和市场份额,但只要万事具备,展开竞争就会变得更容易一些,而且对几乎所有人来说这都是一个公平的竞争环境,这绝对是英特尔现在能够参与竞争的一套非常强大的产品。”前英特尔员工、现任印度HCL Technologies公司副总裁、生态系统业务部门全球负责人的Suresh T. Kumar表示。
英特尔正在“支持合作伙伴生态系统,让人工智能无处不在”
英特尔全球渠道负责人John Kalvin在接受采访时表示,英特尔对人工智能战略的总体投资是为了“支持合作伙伴生态系统,让人工智能无处不在”。
“未来将有AI PC,你将拥有处于边缘的AI,你将拥有数据中心的AI,其中一些将是推理,还有一些是深度学习。”
“但我并没有将公司在合作伙伴上的投资与我们为真正把AI带入各个领域而进行的整体投资区分开来,”他补充道。
Kalvin表示,英特尔在Intel Partner Alliance合作伙伴联盟计划下为合作伙伴提供了丰富的AI相关资源,其中包括AI加速器计划、培训、工程和支持,“可以帮助客户加速把AI解决方案推向市场”。
Intel Developer Cloud可以帮助合作伙伴推进AI业务
英特尔首席商务官Christoph Schell表示,英特尔最近推出的Intel Developer Cloud平台将在合作伙伴为其共同客户构建和测试基于英特尔的AI解决方案方面发挥重要的作用。
Schell表示,当合作伙伴进行AI项目早期开发的时候,他们应该将这些项目带到Intel Developer Cloud中,在那里他们可以使用运行在英特尔云基础设施上最新的至强CPU、数据中心GPU以及Gaudi深度学习处理器。
该平台还包括了AI框架和工具,例如英特尔的OpenVINO工具包以及英特尔对PyTorch和TensorFlow的优化,此外还提供了对英特尔工具包和库(例如英特尔oneAPI Base Toolkit)以及主流AI基础模型(例如Llama 2和Stable Diffusion)的访问。
Schell表示:“在我们做任何事情之前,让我们测试模型,让他们体验我们的软件堆栈,让我们看看是否可以帮助他们解决特定的工作负载,然后讨论我们所采取的措施。因此,我认为,这一额外的步骤对于很多客户和渠道合作伙伴来说是一种解脱,因为他们不必自己构建了。”
Intel Developer Cloud可以帮助合作伙伴确定他们是否需要GPU等功能强大的处理器,还是使用CPU等较为便宜的处理器。
“并非所有工作负载都需要GPU。事实上,如果你看看我们的AI客户交易渠道就会发现,我们大部分的渠道都是企业专有的数据,从数据完整性的角度来看,这很重要。”
“但这些并不是规模最大的。因此,为客户和合作伙伴提供跨CPU和GPU工作的灵活性,也会对总体拥有成本产生巨大的影响,”他补充说。
英特尔正在试图用自己的GPU和Gaudi处理器与Nvidia GPU展开竞争,但Schell表示,他还没有收到有关于客户想要了解双方对比情况的信息。相反,客户想知道英特尔的软件堆栈与竞争对手有何不同。
“你需要亲自指导客户,教育他们,并且共同学习他们的数据是如何运行在软件堆栈上的。因此,这不是一种现成的价值主张,而是每次一个客户,每次是一组数据。我认为,我们在这方面所做的最好的投资就是我们的Developer Cloud,”Schell表示。
这位去年从惠普加入英特尔的高管表示,结果已经很乐观了。
“我认为能够告诉合作伙伴,‘将你的客户带到这个云上,让我们停止理论上的讨论,而是真正研究如何训练模型,如何进行推理,然后进行业务层面讨论,’过去几周的内容非常有帮助,”他说。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。