本周一在美国拉斯维加斯开幕的CES消费电子展上,英特尔展示了自己首款采用10纳米工艺的处理器。
这款代号“Ice Lake”的处理器主要面向个人电脑,基于英特尔最近推出的Sunny Cove位架构,该架构采用了旨在推动利用人工智能和英特尔Gen 11 GPU的指令集。
Sunny Cove提高了英特尔芯片的时钟性能和能效,适用于日常计算,此外还增加了支持人工智能和加密相关工作负载的新功能。
具体来说,Sunny Cove让CPU能够并行执行更多操作,通过改进算法降低延迟,并提供更大的缓冲区和缓存来优化以数据为中心的工作负载,英特尔客户端计算群组高级副总裁Gregory Bryant这样表示。
今年晚些时候出货第一批设备的时候,Ice Lake芯片还将配置面向PC和笔记本电脑的Thunderbolt 3、Wi-Fi 6和Deep Learning功能。
Ice Lake对英特尔来说是一个重要的里程碑。目前英特尔已经落后于AMD等竞争对手,后者正在出货采用7纳米制程工艺的CPU,这意味着AMD可以在每个芯片上容纳更多的晶体管,从而提高计算能力。
英特尔最初计划在2016年推出10纳米处理器,但一再延迟并于最近称最早要等到2019年。现在推出了Ice Lake,英特尔似乎终于实现了自己的承诺。
在今年的CES上,英特尔进一步扩大了自己的芯片产品阵容,推出了6款专门面向视频游戏PC的第9代芯片。这些芯片新品将于本月晚些时候出货,从入门级Core i3一直到新的Core i9处理器。英特尔还表示,计划将第9代芯片用于H系列笔记本电脑,于今年第二季度推出。
展望未来,英特尔预览了一个名为Lakefield的新混合型CPU客户端平台采用英特尔的Foveros 3D封装技术。Lakefield CPU配备5个核心,包括1个10nm Sunny Cove核心和4个基于Intel Atom的核心,并将不同的知识产权组合到一款产品中,占用的主板空间更小。英特尔表示,这将使计算机制造商“更轻松地实现轻薄外形设计”。
英特尔还公布了代号Project Athena的创新计划,该计划提供了一系列行业规范,旨在帮助“引入新一代高级笔记本电脑,旨在实现新体验并利用下一代技术如5G和人工智能”。
英特尔表示,该规范罗列了实现这些新技术的平台要求、用户体验以及实际使用模式定义的基准测试目标。英特尔预计,采用Project Athena规范的首批设备将于今年下半年出货。
在AI工作负载方面,英特尔详细介绍了新推出的Nervana Neural Network Processor for Inference。英特尔城,这是一种新型芯片,旨在加快人工智能训练的推理速度,或者人工智能模型根据接收到的数据得出结论的速度。
Moor Insights&Strategy首席分析师Patrick Moorhead表示,这是一个重要的发布,因为英特尔声称NNP-I在实际应用的推理性能方面可以胜过Nvidia的GPU。
Moorhead说:“如果这是真的,那将一个重要的消息。英特尔似乎非常有信心,我期待看到运行生产工作负载的第三方基准测试结果。”
英特尔表示,这款代号为“Spring Crest”的芯片新品将于今年晚些时候发布。
最后,英特尔正在扩大自己的“片上系统”生态,推出了代号为Snow Ridge的10nm平台,该平台旨在实现5G无线接入和边缘计算工作负载。英特尔表示,此举目的是将英特尔架构引入无线接入基站,并允许更多计算功能分布到网络边缘。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。