英特尔是领先的且更有能力引领人工智能应用时代的公司
内容摘要
Sandra Rivera
英特尔公司执行副总裁兼数据中心与人工智能事业部总经理
人工智能(AI)的核心是使机器识别模式并据此做出准确预测的能力。而随着AI模型持续变得更加精妙和复杂,对更多计算、内存、带宽和功率的需求也与日俱增。
AI是增长最快的计算工作负载,也是英特尔认为将对世界产生变革性影响的四大超级技术力量之一。尽管它诞生于数据中心,但我相信AI的未来在数据中心之外。AI在客户端和边缘的应用时代已经来临,为了让AI从云端扩展到边缘,社区需要一种更加开放和整体的解决方案来加速并简化整个数据建模和部署管道。我们的策略是复制公司历史上为其他重大技术转型所采取的措施:向更多客户开放,加速AI的普及化并推动更大规模的应用。
在全球范围内,英特尔是为数不多的能够更好地引领世界进入AI下一个时代的公司。基于我们强大的生态系统和开放式软件,以及至关重要的CPU、GPU、ASIC等架构能够满足无数AI使用场景的特定需求,这将使我们能够引领市场发展并为无处不在的开放式AI打下坚实基础。
一系列具备AI特性的领先架构
提及AI,许多人立刻会联想到深度学习训练和显卡性能。由于训练往往是大规模并行的,因此显卡得到了很多关注,但这只是AI的一部分。大部分AI实践中的解决方案会包含经典机器学习算法和中低复杂度的深度学习模型的组合,而这些功能都已经被集成在至强等现代CPU内。
目前,AI数据流水线主要在至强处理器上运行。通过内置加速和优化软件,我们能够让至强处理器运行得更快。基于此,我们一方面通过Sapphire Rapids,将AI的总体性能比上一代产品提高最多30倍;同时,我们还通过将更多AI工作负载引入至强处理器以减少对独立加速器的需求,从而进一步提高至强处理器的产品竞争力。对于诸如至强等英特尔产品而言,AI功能和优化并不是一个新概念。因此,我们计划扩展这种方法,将AI融入我们交付到数据中心、客户端、边缘、显卡等诸多领域的每个产品中。
对于那些真正在GPU上表现最佳的深度学习训练,我们希望客户能够自由选择最适合其AI工作负载的计算。现阶段的GPU是专有且封闭的,但我们有一款针对特定领域的Habana Gaudi AI处理器,和一款专为高性能计算打造的Ponte Vecchio显卡,它们将基于开放的行业标准。我们对Gaudi目前取得的进展感到十分高兴,AWS在2021年第四季度宣布全面推出基于Habana Gaudi的DL1实例,其性价比较基于显卡的现有实例高40%,并在早期Gaudi使用测试中表现优异。
打造成熟的生态系统吸引更多客户
特定的模型、算法和要求会因使用场景和行业而变化。例如,一家自动驾驶汽车公司需要解决感知(使用物体检测、定位和分类)、高清地图和路线规划等问题,并采取需要适应动态环境的行动。此外,技术支持软件的聊天机器人也需要了解特定公司和行业的技术术语,才能准确地回答相关问题。同理,对AI软硬件需求也因客户、细分市场、工作负载和设计点而异。设备端、嵌入式和客户端AI系统需要在功耗和散热受限条件下实现低延迟推理。人们也越来越需要云中开发的AI具有边缘感知能力,以便云中开发的解决方案可以部署在边缘,反之亦然。
所有这些因素都在推动从数据中心到网络再到边缘的全面创新,并影响诸如高带宽和大容量内存、快速互连和智能软件在内的系统级硬件架构。
端到端AI流水线中最大的增长点在于模型部署和AI推理阶段。如今,超过70%的AI推理在至强处理器上运行,其中一个增长最快的AI推理使用场景是智能边缘,而至强已在此领域深耕多年。
在过去的八个月中,我一直在与主要客户保持密切沟通,以更深入了解他们的需求和工作负载。这些交流不仅让我们深入了解到如云服务供应商之类的有较强影响力客户的需求,也向我们展示了战略合作伙伴如何帮助我们了解我们自身产品组合所应用的关键领域。现阶段,有数以万计的云实例在英特尔处理器上运行,而且它的增长速度比任何其他架构都快。与此同时,针对x86架构编写的代码有数千亿行,整个行业也已经安装了数亿颗至强处理器。因此,英特尔具备得天独厚的优势,不仅可以通过行业标准横向推动行业发展,亦能在需求更加专业的自动化和医疗等领域纵向推动行业发展。
面向AI开发者的开放软件堆栈
硬件只是解决方案的一部分,因此我们在AI策略上始终秉持“软件优先”的理念。其中,“软件优先”包括安全的AI软件组件,即让用户能够利用至强处理器的独特软件和安全功能,如通过英特尔®软件防护扩展(英特尔® SGX)进行机密计算,保护使用中的关键数据和软件。英特尔®SGX是业界第一个也是部署最多的基于硬件的数据中心可信执行环境,在此基础之上,我们的至强产品路线图也涵盖更多机密计算技术,这也将夯实我们的技术领先性。
我们花费数年时间为CPU优化最流行的开源框架和函数库,而且我们拥有基于开放标准开发的最广泛的特定领域加速器组合,使代码更容易移植且避免被锁定。此外,为增强技术领先性并持续推动创新,我们持续深耕技术,希望能够打造开放式AI,以涵盖从云和数据中心到客户端、边缘和更多领域。
尽管在AI框架中默认启用英特尔优化对于推动大规模芯片应用至关重要,但我们仍然需要满足各类AI开发者的需求,如从事软件堆栈底部工作的框架开发者、在堆栈较高位置工作的低代码或无代码主题专家,以及部署、运行、训练和维护AI模型(MLOps)的所有工程和运营人员。尽管他们的角色迥然不同,但AI工作流程的每个阶段都有共同的目标,即以最低的成本和风险快速从概念扩展到现实世界,这也意味着他们需要选择以及基于易于部署和维护的通用框架的开放解决方案。
基于此,我们已经开发了BigDL和OpenVino™。其中,BigDL支持在现有大数据基础设施上进行大规模机器学习;而通过数百个提前训练的模型,OpenVino™可以加速并简化推理在许多不同硬件上的部署。通过一致的标准和API,为从事底层AI堆栈工作的开发者提供可组合或优化的构建块,以及为低代码开发者提供优化和产品化的工具和套件,英特尔助力AI开发者茁壮成长。我们持续深耕AI加速器和安全性,这将让我们能够使这些关键计算元素在所有客户、细分市场和产品中广泛存在。
英特尔推动AI Everywhere
现阶段AI已经在深刻变革各行各业,未来它也有望改善地球上每个人的生活,但前提是它能够被更容易地大规模部署。我们认为,降低AI的进入门槛需要正确的AI技术集合。经过实践,我们验证了一个成功的模式,以加速AI创新的下一个时代:通过开源工作帮助定义开发环境,我们将能够开发和影响客户的解决方案,从而影响整个行业。我们预测,到2026年,英特尔AI逻辑芯片的市场规模将超过400亿美元。我们正以强大的实力抓住这个机会,我对未来充满信心。
好文章,需要你的鼓励
11月12日,AMD最新发布的第二代 AMD Versal Premium系列产品,支持CXL内存扩展模块。
梵蒂冈与微软合作,共同推出的圣彼得大教堂数字孪生模型是一个雄心勃勃的项目,希望将古老精神与前沿科技融合起来,旨在保护并与全球观众分享大教堂承载的历史、艺术与精神财富。圣彼得大教堂负责人Mauro Gambetti主教于2024年11月11日在新闻发布会上公布了这一举措,强调了将大教堂打造成“面向所有人开放的空间”的使命,希望借此为2025年即将到来的数百万禧年朝圣者做好准备。
新系统包括NetApp AFF A系列产品组合的新型号,例如NetApp AFF A20、AFF A30和AFF A50全闪存阵列。与该系列的高端型号一样,这些中端全闪存阵列旨在为客户带来了升级的特性,包括亚毫秒级延迟和比上一代阵列高2.5倍的性能。
生成式AI助手Amazon Q正在通过将开发人员的生产力提升到新的高度来改变这家价值1100亿美金的公司。