生成式AI、大模型、ChatGPT等话题持续走红,除了如“明星”般的应用之外,打造“基石”的芯片企业也不可忽视。
英特尔院士、大数据技术全球首席技术官戴金权在接受记者采访时表示,英特尔致力于将生成式AI普适化,让各行各业,以及普通的消费者都可以使用。
生成式AI无处不在
为了实现这样的愿景,一方面,作为满足生成式AI和大语言模型的算力需求的重要组成部分,软件算法设计的多样化必不可少。英特尔拥抱开源以及AI开放社区,比如与TensorFlow、PyTorch、Hybrid Bonding、OpenAI等展开合作,在开源AI的软件工具和软件基础架构上有所作为,自动生成底层的、最优的针对不同硬件平台的代码,实现上层的框架、算法更高效的开发。同时,英特尔与Hugging Face在开放的大语言模型上也有合作。
另一方面,英特尔通过对算力优化、计算能力的提升来支撑生成式AI无所不在。不管是GPU,还是类似Gaudi 2的AI加速器,还有最新发布的第四代英特尔至强可扩展处理器加入了专门针对矩阵运算的加速器(英特尔AMX),以加速神经网络运算。
此前,Hugging Face曾展示,Stable Diffusion在内置英特尔高级矩阵扩展(英特尔AMX)的第四代英特尔至强可扩展处理器上运行的平均速度提高了3.8倍。而且,这种加速是在不更改任何代码的情况下实现的。
戴金权指出,XPU架构是趋势,通过XPU技术与英特尔的软硬件优化,英特尔能够让生成式AI无所不在,甚至是消费级的计算设备上提供AI能力。“我们可以让客户在搭载12代酷睿i5的笔记本上运行开源的7B(70亿参数)和13B(130亿参数)的入门级大语言模型。”
除了大语言模型之外,英特尔可以将Stable Diffusion运行在12代酷睿笔记本上,不需要任何独立显卡,直接利用集成显卡,就可以在二、三十秒的时间里生成一张图片,用户体验良好。
总之,在整个计算领域,面向本地端、云端、边缘端,从小尺寸的设备扩展到大规模的数据中心,英特尔提出了“软件定义、芯片增强”的策略,即用户需要借助软件定义自身需要什么样的计算能力,然后再从硬件角度进行更好的增强和支持。面对不同的应用、场景,英特尔通过提供全方位的“智能计算”能力支持生成式AI的应用。
负责任的AI
英特尔并没有满足于让AI无处不在,其实大语言模型不止是优化生产力的流程,还会带来数据安全和隐私问题。
在引入新技术,特别是AI时,必须有科学和数据基础,并且通过治理引导全过程。英特尔提出了负责任的AI( Responsible AI),在整个开发生命周期中执行严格的多学科评审,包括建立多元化的开发团队以减少偏见,开发遵循伦理原则的AI模型,同时从技术和人文的角度广泛评估结果,并与行业伙伴合作减少AI潜在的负面影响。
戴金权表示,无论是数据、模型、应用,英特尔内部制定了一个“负责任的AI”的流程,其中定义了如何消除偏见、如何使用正确的数据等。
英特尔致力于打造负责任的AI,在数据安全和隐私计算方面做了很多相关工作。借助英特尔硬件级的安全技术,比如英特尔TDX、英特尔SGX可以避免数据出域,降低数据泄露风险,加上软件层构建的面向大数据分析和机器学习的隐私计算平台(BigDL PPML,Privacy Preserving Machine Learning),再结合大语言模型和Stable Diffusion,就可以从数据和模型两方面保护生成式AI的应用,确保数据安全和隐私性。此外,英特尔还通过算法判定机器生成内容,确保内容真假。
戴金权表示,在笔记本上运行例如Stable Diffusion的大语言模型,这不仅降低了AI的使用门槛,让消费者可以使用这些生成式AI,另一方面也大大保护了数据模型的隐私,因为你可以把整个生成式AI、大语言模型部署在本地,算法、应用、数据都在本地,不需要跟其他人分享。
总而言之,英特尔的目标是秉承负责任的态度和原则,与整个行业密切协作,支持包括生成式AI在内的各种AI模型。
“我们的愿景是让AI无所不在,将开源的大语言模型和英特尔的计算能力相结合,我们可以给用户提供全新、优秀的生成式AI使用体验。”戴金权最后说。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。