生成式AI、大模型、ChatGPT等话题持续走红,除了如“明星”般的应用之外,打造“基石”的芯片企业也不可忽视。

英特尔院士、大数据技术全球首席技术官戴金权在接受记者采访时表示,英特尔致力于将生成式AI普适化,让各行各业,以及普通的消费者都可以使用。
生成式AI无处不在
为了实现这样的愿景,一方面,作为满足生成式AI和大语言模型的算力需求的重要组成部分,软件算法设计的多样化必不可少。英特尔拥抱开源以及AI开放社区,比如与TensorFlow、PyTorch、Hybrid Bonding、OpenAI等展开合作,在开源AI的软件工具和软件基础架构上有所作为,自动生成底层的、最优的针对不同硬件平台的代码,实现上层的框架、算法更高效的开发。同时,英特尔与Hugging Face在开放的大语言模型上也有合作。
另一方面,英特尔通过对算力优化、计算能力的提升来支撑生成式AI无所不在。不管是GPU,还是类似Gaudi 2的AI加速器,还有最新发布的第四代英特尔至强可扩展处理器加入了专门针对矩阵运算的加速器(英特尔AMX),以加速神经网络运算。
此前,Hugging Face曾展示,Stable Diffusion在内置英特尔高级矩阵扩展(英特尔AMX)的第四代英特尔至强可扩展处理器上运行的平均速度提高了3.8倍。而且,这种加速是在不更改任何代码的情况下实现的。
戴金权指出,XPU架构是趋势,通过XPU技术与英特尔的软硬件优化,英特尔能够让生成式AI无所不在,甚至是消费级的计算设备上提供AI能力。“我们可以让客户在搭载12代酷睿i5的笔记本上运行开源的7B(70亿参数)和13B(130亿参数)的入门级大语言模型。”
除了大语言模型之外,英特尔可以将Stable Diffusion运行在12代酷睿笔记本上,不需要任何独立显卡,直接利用集成显卡,就可以在二、三十秒的时间里生成一张图片,用户体验良好。
总之,在整个计算领域,面向本地端、云端、边缘端,从小尺寸的设备扩展到大规模的数据中心,英特尔提出了“软件定义、芯片增强”的策略,即用户需要借助软件定义自身需要什么样的计算能力,然后再从硬件角度进行更好的增强和支持。面对不同的应用、场景,英特尔通过提供全方位的“智能计算”能力支持生成式AI的应用。
负责任的AI
英特尔并没有满足于让AI无处不在,其实大语言模型不止是优化生产力的流程,还会带来数据安全和隐私问题。
在引入新技术,特别是AI时,必须有科学和数据基础,并且通过治理引导全过程。英特尔提出了负责任的AI( Responsible AI),在整个开发生命周期中执行严格的多学科评审,包括建立多元化的开发团队以减少偏见,开发遵循伦理原则的AI模型,同时从技术和人文的角度广泛评估结果,并与行业伙伴合作减少AI潜在的负面影响。
戴金权表示,无论是数据、模型、应用,英特尔内部制定了一个“负责任的AI”的流程,其中定义了如何消除偏见、如何使用正确的数据等。
英特尔致力于打造负责任的AI,在数据安全和隐私计算方面做了很多相关工作。借助英特尔硬件级的安全技术,比如英特尔TDX、英特尔SGX可以避免数据出域,降低数据泄露风险,加上软件层构建的面向大数据分析和机器学习的隐私计算平台(BigDL PPML,Privacy Preserving Machine Learning),再结合大语言模型和Stable Diffusion,就可以从数据和模型两方面保护生成式AI的应用,确保数据安全和隐私性。此外,英特尔还通过算法判定机器生成内容,确保内容真假。
戴金权表示,在笔记本上运行例如Stable Diffusion的大语言模型,这不仅降低了AI的使用门槛,让消费者可以使用这些生成式AI,另一方面也大大保护了数据模型的隐私,因为你可以把整个生成式AI、大语言模型部署在本地,算法、应用、数据都在本地,不需要跟其他人分享。
总而言之,英特尔的目标是秉承负责任的态度和原则,与整个行业密切协作,支持包括生成式AI在内的各种AI模型。
“我们的愿景是让AI无所不在,将开源的大语言模型和英特尔的计算能力相结合,我们可以给用户提供全新、优秀的生成式AI使用体验。”戴金权最后说。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。