对于人工智能的粉丝和采用者来说,2017年是令人兴奋的一年。进入2018年,我们想看看未来将要发生什么。有一件事是肯定的:我们刚刚开始这个旅程,今后一年会有很大的成功以及巨大的失败。在进行预测之前,对2017年人工智能领域进行梳理可能会有所帮助。让我们先来简短地看看,过去一年里人工智能领域发生了哪些事情。
2017年人工智能芯片的10件大事
1、NVIDIA数据中心业务继续超出最高期望值,实现三位数的增长,达到约15亿美元的收入运行率。
2、NVIDIA凭借用于机器学习的NVIDIA Volta V100 GPU和云服务令市场震惊,TensorCores-6X每秒运算速度达到125万亿次,其性能是一年前推出的PASCAL的6倍。
3、NVIDIA还宣布推出自己的Deep Learning ASIC,将其纳入该公司下一代DrivePX汽车平台。如承诺的那样,NVDIA在第三季度以开源技术的形式发布了该规范。
4、AMD推出了AI GPU和软件Vega Frontier Edition。AMD宣布赢得了一些大型的部署,其中包括用于百度选用AMD的GPU,以及微软Azure选用AMD的EPYC CPU。
5、Google发布了自己的用于人工智能深度学习训练的ASIC芯片——Cloud TensorFlow Prcessing Unit,每个裸片提供45个TeraOps,4裸片的180 TeraOps卡用于其数据中心和云服务中。这一消息引发了人们对ASIC可能对NVIDIA统治地位造成威胁的猜测。
6、微软宣布其内部使用英特尔Altera FPGA机器学习和其他应用取得了令人印象深刻的结果。这也提高赛灵思在数据中心的预期。说起来...
7、Amazon.com AWS宣布了针对(赛灵思提供驱动的)F1实例的AWS Marketplace Solutions,用于应用加速(用于视频、基因组学、分析和机器学习)。百度,华为等公司也加入了赛灵思FPGA这股潮流。
8、英特尔错过了Nervana Engine产品发布这一里程碑,后者在2016年被英特尔收购。
9、英特尔取消了Knights Hill Xeon Phi芯片,不是因为标准至强处理器已经很好了,就是因为英特尔计划将其人工智能转移到Nervana。毫无疑问,能够大幅节省开发费用是最终的决定性因素。
10、最后,为人工智能挑战NVIDIA而开发的ASIC数量急剧增长,其中包括六家中国初创公司、六家美国风险投资公司以及其他几家大公司(包括高通、华为和东芝)。
2018年人工智能芯片的10大预测
现在,让我们继续对2018年进行一下预测,我们会用高、中、低概率来压下我的赌注。
1、谷歌将宣布其TPU用于Google Compute Cloud中,以及推出新的API和工具服务,以更好地与微软和亚马逊在机器学习即服务方面展开竞争。(高概率)
2、英特尔最终将在第二季度或者第三季度推出Nervana引擎。在KNH取消之后,要在这个高速增长的市场站稳脚跟,英特尔就不能再犹豫等待了。然而,我怀疑英特尔会利用这个芯片的片上结构,因为它想要销售尽可能多的至强芯片——真心希望为了英特尔,后一点是错误的。(高概率)
3、NVIDIA将预发布Volta的下一代芯片。Volta才推出没多久,仍然领先于现有的其他忍心芯片,所以下一代芯片有可能会到11月份的SC'18才公布,而不是今年3月份的GTC。 (中概率)
4、赛灵思将至少赢得一位人工智能推断的知名客户,但是我认为不太可能是微软。(高概率)
5、虽然2017年是数据中心人工智能的一年,但2018年人工智能的发展势头迅猛,物联网等边缘应用势头良好。这对NVIDIA来说是至关重要的,因为它需要在边缘保持领先地位。 (中概率)
6、虽然戴尔,惠普和联想都提出了新的基础设施来支持人工智能,但是企业采用人工智能将会延续到2019年或更晚。(高概率)
7、至少会有一家ASIC初传该公司被收购,例如Wave Computing、Cerebras或Groq。收购方是系统业务厂商和原始设备制造商要比NVIDIA或英特尔更为合理一些。(中概率)
8、NVIDIA将为机器学习带来全面的ASIC产品(不仅仅是开源的DLA逻辑)。2018年,我认为这个概率很低,因为我不认为NVIDIA到2019年才会意识到Google TPU等ASIC的威胁。不过,黄仁勋并不是等到威胁真正来临的时候才开始行动的人。
9、2018年底,至少有一家中国大型云供应商(百度、腾讯或阿里巴巴)将从众多的中国ASIC初创厂商中收购一家。(中概率)
10、虽然AMD的EPYC CPU将在数据中心赢得巨大的关注,但AMD将很难在的人工智能GPU中赢得显著的(两位数)市场份额。AMD的高端Vega GPU仍然比NVIDIA Volta落后一代,建立一个生态系统需要时间。2018年AMD将非常专注于把APU推向市场。(高概率)
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。