Lunar Lake 处理器将继续扩大全球 AI PC 规模,并在未来可用时免费升级 Windows 11 AI PC1体验。
2024 年 5 月 21 日——自 2024 年第三季度起到假日季,英特尔即将到来的客户端处理器(代号 Lunar Lake)将为来自 20 多家 OEM 的 80 多款新笔记本电脑机型提供动力,为全球范围内的Windows 11 AI PC1 带来 AI 性能。Lunar Lake 将在可用时,通过更新获得Windows 11 AI PC1 的体验加持。得益于英特尔® 酷睿™ Ultra 处理器的成功,加之 Lunar Lake 的到来,英特尔在今年将交付超过 4,000 万片 AI PC 处理器。
英特尔公司执行副总裁兼客户端计算事业部总经理 Michelle Johnston Holthaus 表示:“凭借突破性的能耗、x86 架构可靠的兼容性、以及融合了CPU,GPU和NPU的深度整合的软件目录,我们将通过Lunar Lake 和 Windows 11 AI PC1,提供我们有史以来最具竞争力、且融合客户端硬件和软件的解决方案。”
AI PC 的定义:AI PC 集成了中央处理器(CPU)、图形处理器(GPU)和神经网络处理单元(NPU),每种处理器都具有特定的 AI 加速功能。NPU 是一种专用加速器,它能高效地在您的 PC 上直接处理人工智能和机器学习(ML)任务,而不是将数据发送到云端进行处理。随着PC 上任务自动化、简单化和优化的需求日益增长,AI PC 变得越发重要。
重要意义:Lunar Lake 预计将成为突破性的 AI PC 移动处理器, AI 性能比前一代产品高出 3 倍。凭借 NPU 超过 40 TOPS 的算力,英特尔的下一代处理器将提供满足市场所需的 Windows 11 AI PC1 能力。除了性能更高的 NPU 之外,Lunar Lake 的GPU 具备超过 60 TOPS 的算力,共计提供超过 100 TOPS 的平台算力。
Microsoft Windows+ 设备公司副总裁 Pavan Davuluri 表示:“Microsoft很荣幸与英特尔深入合作。Lunar Lake的发布在安全性、续航等方面带来革命性提升。我们也很高兴看到 Lunar Lake 的 NPU 配备超过40 TOPS 的算力,能在Windows 11 AI PC1 体验可用时大规模交付。”
AI 的全面发展需要强大的软件基础设施和硬件创新。作为AI PC加速计划的一部分,英特尔持续与超过100家 ISV 合作,以提升个人助理、音频效果、内容创作、游戏、安全、流媒体、视频协作等方面的AI PC体验。
更多内容:英特尔 AI PC | AI PC 加速计划 | 已有超过500款AI模型在英特尔酷睿Ultra处理器上得以优化运行
键将开启Windows 搜索功能。更多细节请参阅aka.ms/KeySupport 性能根据使用情况、配置和其他因素可能有所不同。更多详情请参阅intel.com/performanceindex。
所有产品计划和路线图可能会改变。
AI 功能可能需要购买软件、订阅、或软件及平台提供商的激活启用,也可能需要特别的配置或兼容需求。更多细节请参阅www.intel.com/AIPC。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。