对于人工智能的粉丝和采用者来说,2017年是令人兴奋的一年。进入2018年,我们想看看未来将要发生什么。有一件事是肯定的:我们刚刚开始这个旅程,今后一年会有很大的成功以及巨大的失败。在进行预测之前,对2017年人工智能领域进行梳理可能会有所帮助。让我们先来简短地看看,过去一年里人工智能领域发生了哪些事情。
2017年人工智能芯片的10件大事
1、NVIDIA数据中心业务继续超出最高期望值,实现三位数的增长,达到约15亿美元的收入运行率。
2、NVIDIA凭借用于机器学习的NVIDIA Volta V100 GPU和云服务令市场震惊,TensorCores-6X每秒运算速度达到125万亿次,其性能是一年前推出的PASCAL的6倍。
3、NVIDIA还宣布推出自己的Deep Learning ASIC,将其纳入该公司下一代DrivePX汽车平台。如承诺的那样,NVDIA在第三季度以开源技术的形式发布了该规范。
4、AMD推出了AI GPU和软件Vega Frontier Edition。AMD宣布赢得了一些大型的部署,其中包括用于百度选用AMD的GPU,以及微软Azure选用AMD的EPYC CPU。
5、Google发布了自己的用于人工智能深度学习训练的ASIC芯片——Cloud TensorFlow Prcessing Unit,每个裸片提供45个TeraOps,4裸片的180 TeraOps卡用于其数据中心和云服务中。这一消息引发了人们对ASIC可能对NVIDIA统治地位造成威胁的猜测。
6、微软宣布其内部使用英特尔Altera FPGA机器学习和其他应用取得了令人印象深刻的结果。这也提高赛灵思在数据中心的预期。说起来...
7、Amazon.com AWS宣布了针对(赛灵思提供驱动的)F1实例的AWS Marketplace Solutions,用于应用加速(用于视频、基因组学、分析和机器学习)。百度,华为等公司也加入了赛灵思FPGA这股潮流。
8、英特尔错过了Nervana Engine产品发布这一里程碑,后者在2016年被英特尔收购。
9、英特尔取消了Knights Hill Xeon Phi芯片,不是因为标准至强处理器已经很好了,就是因为英特尔计划将其人工智能转移到Nervana。毫无疑问,能够大幅节省开发费用是最终的决定性因素。
10、最后,为人工智能挑战NVIDIA而开发的ASIC数量急剧增长,其中包括六家中国初创公司、六家美国风险投资公司以及其他几家大公司(包括高通、华为和东芝)。
2018年人工智能芯片的10大预测
现在,让我们继续对2018年进行一下预测,我们会用高、中、低概率来压下我的赌注。
1、谷歌将宣布其TPU用于Google Compute Cloud中,以及推出新的API和工具服务,以更好地与微软和亚马逊在机器学习即服务方面展开竞争。(高概率)
2、英特尔最终将在第二季度或者第三季度推出Nervana引擎。在KNH取消之后,要在这个高速增长的市场站稳脚跟,英特尔就不能再犹豫等待了。然而,我怀疑英特尔会利用这个芯片的片上结构,因为它想要销售尽可能多的至强芯片——真心希望为了英特尔,后一点是错误的。(高概率)
3、NVIDIA将预发布Volta的下一代芯片。Volta才推出没多久,仍然领先于现有的其他忍心芯片,所以下一代芯片有可能会到11月份的SC'18才公布,而不是今年3月份的GTC。 (中概率)
4、赛灵思将至少赢得一位人工智能推断的知名客户,但是我认为不太可能是微软。(高概率)
5、虽然2017年是数据中心人工智能的一年,但2018年人工智能的发展势头迅猛,物联网等边缘应用势头良好。这对NVIDIA来说是至关重要的,因为它需要在边缘保持领先地位。 (中概率)
6、虽然戴尔,惠普和联想都提出了新的基础设施来支持人工智能,但是企业采用人工智能将会延续到2019年或更晚。(高概率)
7、至少会有一家ASIC初传该公司被收购,例如Wave Computing、Cerebras或Groq。收购方是系统业务厂商和原始设备制造商要比NVIDIA或英特尔更为合理一些。(中概率)
8、NVIDIA将为机器学习带来全面的ASIC产品(不仅仅是开源的DLA逻辑)。2018年,我认为这个概率很低,因为我不认为NVIDIA到2019年才会意识到Google TPU等ASIC的威胁。不过,黄仁勋并不是等到威胁真正来临的时候才开始行动的人。
9、2018年底,至少有一家中国大型云供应商(百度、腾讯或阿里巴巴)将从众多的中国ASIC初创厂商中收购一家。(中概率)
10、虽然AMD的EPYC CPU将在数据中心赢得巨大的关注,但AMD将很难在的人工智能GPU中赢得显著的(两位数)市场份额。AMD的高端Vega GPU仍然比NVIDIA Volta落后一代,建立一个生态系统需要时间。2018年AMD将非常专注于把APU推向市场。(高概率)
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
IDEA研究院等机构联合开发了ToG-3智能推理系统,通过多智能体协作和双重进化机制,让AI能像人类专家团队一样动态思考和学习。该系统在复杂推理任务上表现优异,能用较小模型达到卓越性能,为AI技术的普及应用开辟了新路径,在教育、医疗、商业决策等领域具有广阔应用前景。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室提出SPARK框架,创新性地让AI模型在学习推理的同时学会自我评判,通过回收训练数据建立策略与奖励的协同进化机制。实验显示,该方法在数学推理、奖励评判和通用能力上分别提升9.7%、12.1%和1.5%,且训练成本仅为传统方法的一半,展现出强大的泛化能力和自我反思能力。