本周一在美国拉斯维加斯开幕的CES消费电子展上,英特尔展示了自己首款采用10纳米工艺的处理器。
这款代号“Ice Lake”的处理器主要面向个人电脑,基于英特尔最近推出的Sunny Cove位架构,该架构采用了旨在推动利用人工智能和英特尔Gen 11 GPU的指令集。
Sunny Cove提高了英特尔芯片的时钟性能和能效,适用于日常计算,此外还增加了支持人工智能和加密相关工作负载的新功能。
具体来说,Sunny Cove让CPU能够并行执行更多操作,通过改进算法降低延迟,并提供更大的缓冲区和缓存来优化以数据为中心的工作负载,英特尔客户端计算群组高级副总裁Gregory Bryant这样表示。
今年晚些时候出货第一批设备的时候,Ice Lake芯片还将配置面向PC和笔记本电脑的Thunderbolt 3、Wi-Fi 6和Deep Learning功能。
Ice Lake对英特尔来说是一个重要的里程碑。目前英特尔已经落后于AMD等竞争对手,后者正在出货采用7纳米制程工艺的CPU,这意味着AMD可以在每个芯片上容纳更多的晶体管,从而提高计算能力。
英特尔最初计划在2016年推出10纳米处理器,但一再延迟并于最近称最早要等到2019年。现在推出了Ice Lake,英特尔似乎终于实现了自己的承诺。
在今年的CES上,英特尔进一步扩大了自己的芯片产品阵容,推出了6款专门面向视频游戏PC的第9代芯片。这些芯片新品将于本月晚些时候出货,从入门级Core i3一直到新的Core i9处理器。英特尔还表示,计划将第9代芯片用于H系列笔记本电脑,于今年第二季度推出。
展望未来,英特尔预览了一个名为Lakefield的新混合型CPU客户端平台采用英特尔的Foveros 3D封装技术。Lakefield CPU配备5个核心,包括1个10nm Sunny Cove核心和4个基于Intel Atom的核心,并将不同的知识产权组合到一款产品中,占用的主板空间更小。英特尔表示,这将使计算机制造商“更轻松地实现轻薄外形设计”。
英特尔还公布了代号Project Athena的创新计划,该计划提供了一系列行业规范,旨在帮助“引入新一代高级笔记本电脑,旨在实现新体验并利用下一代技术如5G和人工智能”。
英特尔表示,该规范罗列了实现这些新技术的平台要求、用户体验以及实际使用模式定义的基准测试目标。英特尔预计,采用Project Athena规范的首批设备将于今年下半年出货。
在AI工作负载方面,英特尔详细介绍了新推出的Nervana Neural Network Processor for Inference。英特尔城,这是一种新型芯片,旨在加快人工智能训练的推理速度,或者人工智能模型根据接收到的数据得出结论的速度。
Moor Insights&Strategy首席分析师Patrick Moorhead表示,这是一个重要的发布,因为英特尔声称NNP-I在实际应用的推理性能方面可以胜过Nvidia的GPU。
Moorhead说:“如果这是真的,那将一个重要的消息。英特尔似乎非常有信心,我期待看到运行生产工作负载的第三方基准测试结果。”
英特尔表示,这款代号为“Spring Crest”的芯片新品将于今年晚些时候发布。
最后,英特尔正在扩大自己的“片上系统”生态,推出了代号为Snow Ridge的10nm平台,该平台旨在实现5G无线接入和边缘计算工作负载。英特尔表示,此举目的是将英特尔架构引入无线接入基站,并允许更多计算功能分布到网络边缘。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。