作者:英特尔中国研究院院长宋继强
回顾2020年,我们的工作和生活模式发生了重大变化,除疫情之外,有一项技术也将在潜移默化中改变我们的生活,即5G。2020年是5G商用元年,中国的5G技术部署在这一年取得了突飞猛进的进展。5G是由技术驱动的创新,早在近10年之前,5G技术就开始研发。而之所以要大力拓展5G技术,并不是为了要迎合当时的需求,而是看到了未来对于带宽和网速的需求,是为当时的未来做出的技术布局。
5G技术的进展让我想到了近期英特尔研究院开放日的主题,即“追求计算的千倍提升”。类似于5G,要满足未来的计算需求,即超高带宽、超低时延、超大规模连接的需求,我们也需要一种“超前”思维。因此产业现在就需要开始提前布局,追求计算的千倍提升,而在目前智能化、数字化的大背景下,这种“超前”思维非常有必要。
数字化、智能化已经成为不可阻挡的趋势,受到今年新冠疫情的影响,这一趋势正在以更快的速度席卷而来。如今,已有超过100亿台设备与云中的超级计算机实现了互联,未来这一数字将增长到1000亿。拥抱数字化不是选择题,而是必选题。在全民数字化的浪潮之下,数据量正在呈爆发式增长,数据形式也更加多元化,可以毫不犹豫的说,未来的计算需要千倍速的提升。英特尔追求计算的千倍提升,就是从计算的供给侧出发,为未来的计算需求构建坚实基石。
除了“超前”思维之外,要想实现计算的千倍提升,还需要“超常”思维,即要打破常规。随着数据越来越呈现多元化,新的计算范式不再是锦上添花,而是雪中送炭。常规和传统的单一架构已经不能满足越来越复杂的计算需求,需要更快、更灵活、更低功耗的“新计算”来破题。
这种“超常”思维将在以下几个领域得到体现。首先在硬件方面,需要打破单一架构,多架构融合的XPU架构将会成为主流。XPU架构不仅能够大幅提升算力,同时还能够根据需求进行快速组合,降低成本,灵活性高。英特尔是目前全球唯一一家已经覆盖这四种主流芯片的厂商,得益于先进的封装技术,英特尔在异构计算领域正突飞猛进。
除此之外,面向未来,也需要对架构本身践行“超常”思维。举例来说,颠覆传统冯·诺伊曼架构,模仿人脑神经元结构的神经拟态计算芯片就是一个很好的例证。这种芯片的优势在于可以在提升性能的同时大幅降低能耗。英特尔及其合作伙伴发现,英特尔神经拟态计算芯片Loihi解决优化和搜索问题的能效比传统CPU高1000倍、速度快100倍,已经实现计算的千倍提升。
图注:英特尔神经拟态计算芯片Loihi
另一大领域是在软件。XPU架构的诞生,为软件提出了更高的要求,因为能够同时掌握多种架构编程语言的开发人员凤毛麟角,而软件是释放硬件性能的关键一环,能够跨架构编程的软件模型以及可以提升编程效率的工具就显得极为重要。为此,英特尔也提前布局,跨架构编程统一模型oneAPI Glod版本已在本月正式发布,将在很大程度上解决跨架构编程难题。
图注:英特尔统一的跨架构编程模型oneAPI
另外,英特尔的机器编程工具也有了很大进展,最新的系统已经可以检测代码中的bug。最让我期待的是英特尔机器编程正在向一个更宏大的目标前进,即让所有领域的非专业编程人士都能通过自然语言的方式向机器表达意图,从而完成编程,极大地扩充了软件的“用武之地”。
最后,要实现计算的千倍提升,还需要坚持可持续原则。千倍速提升不能以千倍的功耗为代价,可持续发展是实现千倍提升的必要条件。
目前,计算对于能源的需求巨大。有研究报告显示,训练一个大型AI模型,所产生的碳排放量相当于5辆美式轿车整个生命周期所消耗的碳排放量。因此面向未来计算的千倍提升,只有坚持可持续,才是真正符合人类利益的技术进步。
英特尔在技术发展一直坚持可持续原则。已经有结果显示,作为下一代AI芯片,英特尔神经拟态计算芯片Loihi在处理语音命令识别时,不仅达到了和GPU类似的精度,并且能效提高1000倍以上。除此之外,英特尔最新的集成光电技术将光子技术与硅芯片紧密集成,可以最大限度地缩小硅光子设备的体积,从而降低成本,将对数据中心进行彻底革新。诸如此类的例子在英特尔还有很多。
英特尔的宏旨是“创造改变世界的科技,造福地球上的每一个人”,通过我们的“超前”思维、“超常”思维以及可持续发展的原则,英特尔正引领产业迈向千倍速的计算未来。对这一天的到来,我充满期待。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。