作者:MIKE WHEATLEY
更新时间:2019年5月26日美国东部夏令时17:17
英特尔公司今天在Computex年度活动(本周在台北举行)中提供了其最新移动处理器Ice Lake(冰湖)的预览版本。
这款新的芯片计划于下个月推出,这是英特尔的一个重要里程碑,Ice Lake是该公司首款采用期待已久的10纳米工艺制造的处理器,该工艺的采用几经波折,多次延迟。
英特尔最初计划于2015年推出首款10纳米芯片,之后该公司被迫将计划推迟到2016年,后来又因为需要努力完善工艺流程,不得不将时间推迟到2017年之后。该公司从来没有透露推迟的正式理由,但是人们普遍认为推迟与产量有关。
如果英特尔想要保持其在芯片制造行业领先地位的话,掌握10纳米工艺至关重要。10纳米指的是微型晶体管或电子门的大小,它们可以快速打开或关闭以在芯片上执行计算。芯片上能够集成的微型晶体管越多,芯片就越强大,因为这意味着它可以执行更多的计算。此外,较小的晶体管的功耗也相对较小,这意味着更长的电池续航能力。
好消息是英特尔似乎终于把事情弄好了。该公司还承诺在2021年推出首款7纳米芯片,该公司本月早些时候表示,Ice Lake的图形性能将比目前的14纳米芯片产品提高一倍,视频转码速度提高一倍,人工智能计算能力提高两到三倍。
在Computex活动之前,该公司更多地谈到了这些功能,声称Ice Lake的性能提升应更多地归功于软件的进步,而不是内核数和时钟频率等硬件改进。鉴于芯片制造领域许多竞争对手——包括Advanced Micro Devices Inc.和台湾半导体制造有限公司在几个月之前就已经推出了自己的7纳米产品,英特尔会强调软件的重要性大过硬件就一点不令人意外了。
尽管如此,英特尔首席架构师兼架构、软件和图形高级副总裁Raja Koduri的说法可能更为切合实际:“对于每一种新硬件架构来说,软件可以实现两种不同量级的性能潜力。”
特别是,英特尔谈到了Ice Lake专业工作负载性能的提升几乎完全依靠软件实现。包括视频游戏中大量的移动图形改进——这得益于Ice Lake芯片内置的Gen 11图形引擎。这款新的图形引擎实现了一种被称为“可变速率着色”的功能,该功能可以针对场景的不同部分应用不同的处理能力,以此增强渲染功能。英特尔表示,Gen 11图形引擎的性能几乎达到了Gen 9图形引擎的两倍。
Ice Lake芯片的另一种理想工作负载是人工智能。英特尔表示,Ice Lake是第一款直接在个人计算机上支持人工智能的处理器,这得益于其在中央处理器上集成了该公司专有的“Deep Learning Boost”软件,以及在图形处理单元上增加了“人工智能指令”。Ice Lake也使用“低功率加速器”,英特尔声称这些技术的结合可以帮助芯片执行人工智能推理任务,速度比竞争对手的产品快8倍。
Moor Insights&Strategy的分析师Patrick Moorhead表示:“我最希望了解哪些应用程序利用了DLBoost,现在这一点还不是很清楚。” Patrick Moorhead表示: “如果它可以使用流行的照片、视频、生产力和游戏应用程序,英特尔就可以在这里获得优势。”
Constellation Research Inc.的分析师Holger Mueller表示,Ice Lake表明芯片制造商们正在竞相在芯片上提供真正的人工智能功能。
Mueller表示:“竞争正在进入下一代应用,而那些能够在硅片上提供最好的人工智能支持的厂商可能会成为赢家。”Mueller表示: “英特尔新推出的Ice Lake芯片非常适合这种趋势。”
除了新的Ice Lake芯片外,英特尔还展示了第二款被称为第9代英特尔酷睿i9-9900KS特殊版处理器的微芯片。英特尔表示,这是世界上第一款全部八颗内核以5千兆赫兹的“涡轮增压频率”运行的芯片,这使其成为“世界上最好的游戏台式机处理器”。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。