目前全球最大的品牌厂商英特尔期望能够成功完成转型,并将自身重新定位为支持人工智能与技术革新——例如云服务与物联网等——发展的核心驱动力量。
这意味着我们将从人工智能的角度重新认识“Intel Inside”。
英特尔目前正处于转型时期,期望由原本的一家由高管团队推动数字化转型的企业演变成为一家直接面向客户进行原型设计的供应商。在本周于纽约举行的Shift会议中,英特尔公司的高管与客户、数据科学家以及合作伙伴进行了密切沟通,以期完善有关该公司的下一步规划。
英特尔公司的首席技术官Khosrowshahi表示:“现在,英特尔开始面向全球客户。” Khosrowshahi,因Nervana的收购——提供了一套可用于扩展AI部署的平台——而加入英特尔公司。此次收购于2016年完成,并且在此后的数月内,英特尔将该平台整合至其产品路线图中并宣布其将推出Nervana神经网络处理器以及一系列新产品。
英特尔公司的第三季度财报报告可能无法展现该公司此次转型的即时回报,然而该公司预计数据中心与至强相关产品能够为其带来质的飞跃,并促使第三季度的非GAAP收益达到每股80美分,合计营收则将达到157.3亿美元。
英特尔公司的神经网络处理器(NNP)专为广泛使用AI的商业企业用户设计。(图片来源:英特尔)
Stifel公司分析师Kevin Cassidy在一份研究报告中表示:
我们认为英特尔在新兴AI市场的地位被低估了。得出此项结论的原因不仅是因为基于GPU的系统仍需要配合该公司的处理器,而且我们认为,AI领域尚处于起步阶段,在明确的赢家或获胜者出现之前,多种解决方案都将进行测试。英特尔方面提供了多种AI解决方案,具体包括该公司旗下的至强Phi协同处理器、FPGA以及通过收购(诸如Mobileye、Movidius与Nervana)发展而来的解决方案。
Khosrowshahi的目标虽然简单但又极具挑战——即创建一款多功能AI处理器。尽管谷歌与苹果公司已经各自研发了自己的AI处理器,但英特尔仍期望大多数企业能够享用AI功能。
此外,该目标的确立也意味着英特尔将与其合作伙伴共同开发。例如,现在的Nervana神经网络处理器(简称NNP)——以前被称为Lake Crest——是与Facebook一起开发完成的。Nervana NNP将用于医疗保健、社交媒体、汽车与天气等,并且其将融合英特尔公司旗下的自主知识产权与开源机制。
Khosrowshahi解释称,现在英特尔公司正处于一个特殊的发展阶段,即在接受投资的同时也希望能够与各种领域的客户建立合作关系。Khosrowshahi 补充称:“我们在能够接收即时反馈并建立架构的可控区域开展工作。”
此前英特尔公司与Facebook关于Nervana NNP的协作就是一个很好的例子。另外,英特尔方面与谷歌、百度以及亚马逊也都保持着紧密的合作关系。对此,Khosrowshahi表示其现在与C级高管之间的会谈也日渐频繁。而会谈过程的第一个问题通常都十分直白:你现在所面临的问题是什么?
数据中心集团的英特尔至强产品线总经理Lisa Spelman就此回应:“这个议题正在日益推动英特尔公司的发展路线图。每款应用程序都将拥有AI要素,并而且在数据中心方面,我们必须解锁更多的功能。AI领域的下一浪潮将会是关于AI的个性化发展。”
Khosrowshahi现在的处境十分特殊,因为他在创建Nervana AI平台时曾数次遭遇陷阱。Khosrowshahi表示:“企业内部各个领域的人员都必须要进行协同合作才能够完成AI配置。因为配置AI必须以自上而下的方式进行,所以完成这项工作需要一定深度与广度的学科知识,主要涉及深度学习、AI以及业务知识等。”
Khosrowshahi补充称,至强将逐步增加内置AI工具。从互连到存储各个方面的进展也将有助于通用型AI的研发。此外,由于Mobileye与Altera的并购,英特尔公司已经为创建自有AI堆栈融合了多种技术。
在存储方面,英特尔已经研发出Optane——一套将能够减少延迟的系统。毕竟计算与实时存储领域最终都将成为AI工具组合中的重要因素。
英特尔公司的AI堆栈与终端客户之间将如何完成交付还有待进一步了解。对于许多公司而言,英特尔的AI工具将通过云服务供应商进行交付。而对于金融服务、石油与天然气以及其他公司,英特尔公司的AI堆栈将被用于内部。大多数公司将根据自身需要混合与匹配AI工具与供应商。换而言之,英伟达公司与英特尔将持续为此保驾护航。
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
Meta公司FAIR实验室与UCLA合作开发了名为HoneyBee的超大规模视觉推理数据集,包含250万训练样本。研究揭示了构建高质量AI视觉推理训练数据的系统方法,发现数据质量比数量更重要,最佳数据源比最差数据源性能提升11.4%。关键创新包括"图片说明书"技术和文字-图片混合训练法,分别提升3.3%和7.5%准确率。HoneyBee训练的AI在多项测试中显著超越同规模模型,同时降低73%推理成本。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
上海AI实验室团队提出ViCO训练策略,让多模态大语言模型能够根据图像语义复杂度智能分配计算资源。通过两阶段训练和视觉路由器,该方法在压缩50%视觉词汇的同时保持99.6%性能,推理速度提升近一倍,为AI效率优化提供了新思路。