英特尔近日在第二届年度Intel Innovation活动中表示,将把一些最为先进的技术引入英特尔Intel Developer Cloud平台上。

与此同时,英特尔公布了GPU产品组合的多项升级。
开发者云
英特尔首席执行官Pat Gelsinger在Intel Innovation 2022活动的主题演讲中宣布了对Intel Developer Cloud的更新。此次活动上,英特尔重磅推出了下一代桌面CPU——即第13代英特尔酷睿系列产品,该产品相比上一代芯片单线程性能提高15%,多线程性能提高41%。
Gelsinger在他的主题演讲中谈到了如今开发者在厂商锁定、获取最新硬件更新、安全性方面面临的诸多挑战。
他说,为了帮助开发者应对这些挑战,英特尔将在Intel Developer Cloud中解锁新的技术,从而让开发者能够使用到一些最新的硬件,目前这些新技术已经可以通过有限的beta试用获得。
部分客户现在可以对新平台进行测试,包括基于Sapphire Rapids新架构的第四代英特尔至强可扩展处理器、具有高带宽内存的第四代英特尔至强处理器、以及基于Ice Lake D的英特尔至强D处理器。Gelsinger说,同时面市的还有英特尔即将推出的Habana Gaudi 2深度学习加速器,以及代号为Ponte Vecchio的Intel Data Center GPU。
他说,开发者可能还想试用英特尔新的Intel Geti计算机视觉平台,任何正在寻找一种快速简便的方法来开发有效AI模型的人都可以使用该平台。Intel Geti平台提供了一个上传数据、注释、模型训练和再训练的统一界面,从而缩短了创建新AI模型所需的时间、成本和专业知识。
Gelsinger说:“在未来的十年里,我们将看到一切都在持续数字化。五大基础技术力量——计算、连接、基础设施、人工智能和传感——都将深刻地塑造我们体验这个世界的方式。”
他说,这个未来将由专注于硬件和软件的开发者所打造。“他们是推动实现一切可能性的、真正的魔术师。培育开放的开发者生态系统是我们转型的核心,开发者社区对我们取得成功是至关重要的。”
英特尔在GPU领域也取得了不错的进展。Gelsinger表示,英特尔下一代Intel Data Center GPU现在已经交付给第一个客户美国阿贡国家实验室,并将在那里为Aurora超级计算机提供动力。
同时,英特尔还更新了Flex系列GPU,为视觉云工作负载提供了一套单一的GPU解决方案,现在支持主流的AI框架例如OpenVINO、TensorFlow和PyTorch。
此外,英特尔推出了基于软件的Xe Super Sampling游戏性能加速器,支持20多款顶级游戏。最后,Gelsinger宣布推出新的加速器用于第四代英特尔至强可扩展处理器,适用于包括人工智能、数据分析、网络和存储在内的特定工作负载。
扩展生态系统
英特尔面临着其他芯片制造商的激烈的竞争,但也认识到在这个行业有时候也可以从合作中受益。Gelsinger在活动中邀请了来自三星和台积电的代表,上台讨论Universal Chiplet Interconnect Express(UCIe)联盟的相关工作,三家厂商都是该联盟的成员。UCIe联盟正在构建一个开放的生态系统,以确保由竞争厂商基于不同工艺技术设计和构建的小芯片,可以通过集成先进封装技术展开协同。
Gelsinger坚持认为,随着全球三大芯片制造商以及80多家半导体领域相关公司的加入,UCIe联盟正在快速变成现实。他承诺,英特尔及旗下芯片制造部门Intel Foundry Services将引领开创一个所谓“系统代工”的新时代,他说,这个时代包含了四个主要部分:晶圆制造、封装、软件、开放的小芯片生态系统。
“那些曾经被认为不可能实现的创新,为芯片制造开辟了全新的可能性,”Gelsinger说。
他介绍了该联盟的首批创新:具有突破性的、可插拔的共封装光子学解决方案。光子学等光学连接技术有望大幅增加芯片到芯片的带宽,这在数据中心可能是特别有价值的。但直到现在,这项技术还没有实现这些承诺,因为制造上的难度意味着这种技术的成本是非常高的。
不过Gelsinger表示,英特尔现在已经通过开发一种坚固的、高产的、基于玻璃的可插拔连接器解决方案克服了这一问题,这有望减少制造难题并降低成本,为具有互操作性的系统和芯片封装架构带来新的可能性。
最后,英特尔公布了有关于提供资金支持打造未来生态系统的最新情况。今年早些时候,英特尔成立了10亿美金的IFS Innovation Fund基金,旨在支持那些正在开发颠覆性代工生态系统技术的早期初创公司和一些更成熟的公司,此后英特尔投资了三家在半导体堆栈方面进行创新的初创公司,包括Astera Labs、SiFive和Movellus。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。