生成式AI、大模型、ChatGPT等话题持续走红,除了如“明星”般的应用之外,打造“基石”的芯片企业也不可忽视。
英特尔院士、大数据技术全球首席技术官戴金权在接受记者采访时表示,英特尔致力于将生成式AI普适化,让各行各业,以及普通的消费者都可以使用。
生成式AI无处不在
为了实现这样的愿景,一方面,作为满足生成式AI和大语言模型的算力需求的重要组成部分,软件算法设计的多样化必不可少。英特尔拥抱开源以及AI开放社区,比如与TensorFlow、PyTorch、Hybrid Bonding、OpenAI等展开合作,在开源AI的软件工具和软件基础架构上有所作为,自动生成底层的、最优的针对不同硬件平台的代码,实现上层的框架、算法更高效的开发。同时,英特尔与Hugging Face在开放的大语言模型上也有合作。
另一方面,英特尔通过对算力优化、计算能力的提升来支撑生成式AI无所不在。不管是GPU,还是类似Gaudi 2的AI加速器,还有最新发布的第四代英特尔至强可扩展处理器加入了专门针对矩阵运算的加速器(英特尔AMX),以加速神经网络运算。
此前,Hugging Face曾展示,Stable Diffusion在内置英特尔高级矩阵扩展(英特尔AMX)的第四代英特尔至强可扩展处理器上运行的平均速度提高了3.8倍。而且,这种加速是在不更改任何代码的情况下实现的。
戴金权指出,XPU架构是趋势,通过XPU技术与英特尔的软硬件优化,英特尔能够让生成式AI无所不在,甚至是消费级的计算设备上提供AI能力。“我们可以让客户在搭载12代酷睿i5的笔记本上运行开源的7B(70亿参数)和13B(130亿参数)的入门级大语言模型。”
除了大语言模型之外,英特尔可以将Stable Diffusion运行在12代酷睿笔记本上,不需要任何独立显卡,直接利用集成显卡,就可以在二、三十秒的时间里生成一张图片,用户体验良好。
总之,在整个计算领域,面向本地端、云端、边缘端,从小尺寸的设备扩展到大规模的数据中心,英特尔提出了“软件定义、芯片增强”的策略,即用户需要借助软件定义自身需要什么样的计算能力,然后再从硬件角度进行更好的增强和支持。面对不同的应用、场景,英特尔通过提供全方位的“智能计算”能力支持生成式AI的应用。
负责任的AI
英特尔并没有满足于让AI无处不在,其实大语言模型不止是优化生产力的流程,还会带来数据安全和隐私问题。
在引入新技术,特别是AI时,必须有科学和数据基础,并且通过治理引导全过程。英特尔提出了负责任的AI( Responsible AI),在整个开发生命周期中执行严格的多学科评审,包括建立多元化的开发团队以减少偏见,开发遵循伦理原则的AI模型,同时从技术和人文的角度广泛评估结果,并与行业伙伴合作减少AI潜在的负面影响。
戴金权表示,无论是数据、模型、应用,英特尔内部制定了一个“负责任的AI”的流程,其中定义了如何消除偏见、如何使用正确的数据等。
英特尔致力于打造负责任的AI,在数据安全和隐私计算方面做了很多相关工作。借助英特尔硬件级的安全技术,比如英特尔TDX、英特尔SGX可以避免数据出域,降低数据泄露风险,加上软件层构建的面向大数据分析和机器学习的隐私计算平台(BigDL PPML,Privacy Preserving Machine Learning),再结合大语言模型和Stable Diffusion,就可以从数据和模型两方面保护生成式AI的应用,确保数据安全和隐私性。此外,英特尔还通过算法判定机器生成内容,确保内容真假。
戴金权表示,在笔记本上运行例如Stable Diffusion的大语言模型,这不仅降低了AI的使用门槛,让消费者可以使用这些生成式AI,另一方面也大大保护了数据模型的隐私,因为你可以把整个生成式AI、大语言模型部署在本地,算法、应用、数据都在本地,不需要跟其他人分享。
总而言之,英特尔的目标是秉承负责任的态度和原则,与整个行业密切协作,支持包括生成式AI在内的各种AI模型。
“我们的愿景是让AI无所不在,将开源的大语言模型和英特尔的计算能力相结合,我们可以给用户提供全新、优秀的生成式AI使用体验。”戴金权最后说。
好文章,需要你的鼓励
Blackwell GPU的生产制造工作量达到Hopper GPU的两倍有余,但带来的收入仅增加至约1.7倍。
由AMD驱动的El Capitan超级计算机(现位于美国劳伦斯利弗莫尔国家实验室(LLNL))成为世界上速度最快的超级计算机。