英特尔方面已经证实,将从2020年开始销售独立的GPU产品。
英特尔的这一计划是在分析师Ryan Shrout一篇文章中透露出来的,他说英特尔首席执行官Brian Krasnich上周在一个分析师活动中透露了这个计划。
英特尔证实了Shrout的说法,称“我们很高兴确认我们将于2020年推出第一款独立GPU。正如我们之前所说的,我们的目标是扩展在PC用集成显卡方面的领先地位,独立的高端图形解决方案面向广泛的计算领域。”
细节不够详细,但进入GPU市场是非常明智的举动,有几个原因。
首先,GPU炙手可热,市场需求很高,甚至供不应求。英特尔可不想看到自己无法为采购者提供除了AMD和Nvidia之外的另一个选择,尤其是考虑到AMD和Nvidia无法迅速从晶圆工厂出货其产品以满足需求。
其次,英特尔最近停止了Xeon Phi协同处理器产品线。GPU将成为Phi的一个更便捷的替代品。
第三,GPU是大势所趋,尤其是在人工智能、高性能计算和可视化等英特尔身处的市场领域。不做GPU就是傻瓜。
最后,英特尔需要新的收入来源。英特尔错过了移动热潮,在物联网领域的进展也不怎么顺利。而且没有任何迹象表明,英特尔打造联网汽车的努力能够很快变现,5G芯片组也是如此。
与此同时,个人电脑销量下滑,Optane尚未成为一个摇钱树,而AMD正在强化自己的数据中心业务。开发GPU将向投资者表明,英特尔正在瞄准未来计算发展的方向,并且知道如何在这个市场中开展业务。
英特尔也可能会做出相当粗糙的GPU。英特尔通常会更强调整合——想想把PC图形卡融入CPU,把WiFi融入Centrino——从而让技术易于使用。我们猜测,当英特尔GPU问世的时候,可能是分离的设备,试图在性能上与对手相匹敌,在封装上击败对手。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。