云端AI UCloud联手英特尔让人工智能触手可及 原创

得益于与英特尔的联合创新,高性能、低成本的UAI-Inference加速了AI在企业中的落地。同时,叶理灯表示,除了基于英特尔架构提供更多更好AI差异化服务,未来UCloud与英特尔会在更多领域比如私有云展开合作,为客户提供更多价值。

至顶网服务器频道 03月29日 新闻消息(文/李祥敬):人工智能,也就是我们常说的AI,正在以排山倒海之势席卷整个社会。从机器学习、模式识别到自动驾驶、机器视觉,AI正在改变你我的生活。虽然基于AI的创新应用层出不穷,但是AI系统的建设并非易事。无论是AI创新公司还是传统行业客户,他们的AI之路并不平坦,特别是AI系统的设计、部署和运维等工作需要大量的投入。

云端AI UCloud联手英特尔让人工智能触手可及

UCloud实验室研发总监叶理灯

作为国内领先的中立云服务提供商,UCloud也在积极拓展AI市场。UCloud实验室研发总监叶理灯告诉记者,为了满足企业在图像识别、自然语言处理等多个AI领域的在线推测应用的需求,UCloud推出了UCloud AI在线服务(UAI-Inference)。

叶理灯表示,UCloud创造性地利用了云主机的空闲计算资源,借助英特尔至强可扩展处理器AVX-512的能力,来提供专注于AI模型部署的AI在线服务,帮助企业获得AI快速便捷部署的能力,并显著降低了企业运行AI在线服务的成本支出。“在云计算平台上,处理器资源能够迅速地进行海量扩容,按我们目前的解决方案,即在每一个虚拟机上都部署一个AI在线服务计算节点,这意味着我们的AI在线服务未来可以根据用户需求得到迅速且海量的扩容能力,同时还不需要额外支付太多成本。”

UCloud用云计算赋能AI

2017年,UCloud提出了“CBA”战略,其中“C”就是Cloud Computing(云计算),“B”是Big Data(大数据),“A”是AI(人工智能)。UAI-Inference就是UCloud布局AI的重要落地之举。

叶理灯说,UCloud在AI领域是提供一个AI的PaaS平台,降低AI应用的落地门槛,另一方面联合AI公司基于该平台打造行业解决方案。“为什么人工智能很火?这主要是来自三个方面的原因。一是技术上的进步,比如深度神经网络的提出和计算能力发展;第二,各种开源深度学习框架降低了AI学习和应用的门槛,例如TensorFlow;第三,媒体的宣传,例如在2016年,AlphaGO带来的平民化的AI认知。”

特别是计算力方面,云计算的深入发展,各种芯片硬件的层出不穷给计算能力提供了很好的支持。“我们知道人工智能有三个要素——数据、算法、计算能力。有一个理论叫’火箭理论‘,就是说如果把人工智能当火箭的话,那么数据是火箭的原料,计算能力就是引擎,算法就是引擎的控制器。”叶理灯说。

为什么说云计算跟人工智能的落地有很大的关系呢?叶理灯表示,随着云计算的发展,不同行业企业的数据生产和消费都是在云计算平台上进行的。“云计算就是为了提供计算能力而产生的。所以,天然来说,在云计算上做机器学习的训练和推理是非常自然的一件事情。”

于是,我们看到UCloud推出了支持人工智能算法框架的大规模分布式计算平台——UAI-Inference。UAI-Inference面向初创企业、传统企业AI转型而生,旨在提供易部署、易运维、更安全以及多AI框架支持的海量AI在线服务节点,自动实现负载均衡、扩容缩容。按实际使用量计费,普遍适用于常见的AI在线服务场景,如图像识别、自然语言处理。

叶理灯介绍说,UAI-Inference提供了类似Serverless的架构,为用户提供了“两步走”的部署模式。首先,向用户提供SDK工具包,内含接口代码框架、代码和数据打包模板以及第三方依赖库描述模板。用户只需根据SDK工具包内的代码框架编写接口代码,准备好相关代码和AI模型以及第三方库列表,就可以通过打包工具一键完成任务的在线部署。

任务打包完毕后,用户可以通过UAI-Inference分布式的AI在线服务PaaS平台进行后续管理和维护。该平台可以同时管理上万个计算节点,并拥有自动请求负载均衡、自动资源管理的功能。用户只需要将业务部署在平台上,就无须操心其后续的运维,也就是“免运维”。

叶理灯表示,云计算解决了系统运维问题,它没有解决应用运维的问题。Serverless架构可以解决应用运维的问题,让UAI-Inference变成以应用为中心、以算法为中心的服务。

而且需要特别指出的是UAI-Inference创新地利用英特尔至强可扩展处理器的空闲处理能力,让数据中心处理器空闲能力得以充分利用。这既降低了企业用户的TCO,也达到了环保节能的效果。“云计算本身是规模经济,英特尔的产品可以通过云计算规模化的效益把它充分展现出来。这是一种远比GPU方案经济高效得多的解决方案,毕竟,这些处理器节点已经是UCloud的既有投资,无需再为此多支出一分钱。”叶理灯说。

为了对这一创新成果进行验证,UAI-Inference已在多个虚拟机节点上部署了AI在线服务计算节点,验证测试的结果表明:基于英特尔至强处理器的AI在线服务计算节点完全能满足用户对性能的要求,在帮助用户有效降低TCO的同时,也顺应了数据中心环保节能的发展方向。

不必重建 英特尔处理器释放新能

对于AI系统的构建,企业一般选择了全新建设。但是UCloud很敏锐地捕捉到了云计算和AI的关系,充分利用已有的计算资源,实现了价值最大化。

通过与英特尔的紧密技术合作,UAI-Inference一方面利用云主机中英特尔至强可扩展处理器产品的空闲处理能力,将英特尔AVX-512能力用于支持和加速AI在线服务。与上一代英特尔AVX2相比,英特尔AVX-512在每个时钟周期的每秒浮点运算次数增加了一倍,因此在诸如建模与模拟、数据分析与机器学习、数据压缩以及可视化与数字内容创建之类的应用中执行计算任务时,能够提供更高的性能和吞吐量。

据悉,相比上一代产品,英特尔至强可扩展处理器针对深度学习训练和推理可提供高达2.2倍的性能。结合可加快交付人工智能服务的软件优化,相比3年前未经优化的服务器系统,全新的处理器可实现113倍深度学习性能的提升。

另一方面,UAI-Inference利用英特尔至强可扩展处理器强大的可扩展性进行弹性部署,用低成本获得高性能,降低用户的TCO。在英特尔至强可扩展平台上构建的系统旨在提供敏捷的服务,并且由于软件和操作系统授权费用以及购置、维护和基础设施成本均处于较低水平,因此可以将TCO降低至65%。

除了硬件层面,UAI-Inference还与英特尔一起,引入了性能更佳的AI框架:面向英特尔架构优化的Caffe框架。这一版本的Caffe框架与传统AI框架相比,针对英特尔硬件平台做了深度优化,在保证兼容性的前提下,极大地提高了性能,同时集成最新版本的英特尔数学核心函数库2017,更高效地利用英特尔AVX-512的处理能力,性能显著提升。

叶理灯表示,以图片识别为例,没有经过优化的AI框架,图像识别大约是十几秒,但是采用经过优化的英特尔Caffe框架,时间缩短到几秒钟。软硬件的结合带来的优势是非常明显的,企业可以获得低成本和高性能的用户体验。

加速AI落地 UCloud与英特尔做更多

对于人工智能的落地,叶理灯表示,AI一定要跟行业结合起来,渗透到行业里面去,这才是人工智能的价值所在。“UCloud是一个中立平台,我们的宗旨是上不碰应用,下不碰数据。AI只是一门技术,其价值的产生一定是解决行业问题。人工智能要深入到行业中,需要三个步骤,一个是Build(构建),一个是Train(训练),一个是Deploy(部署)。”

得益于与英特尔的联合创新,高性能、低成本的UAI-Inference加速了AI在企业中的落地。同时,叶理灯表示,除了基于英特尔架构提供更多更好AI差异化服务,未来UCloud与英特尔会在更多领域比如私有云展开合作,为客户提供更多价值。“云计算的核心就是规模、运营,通过技术创新,服务行业客户,UCloud打造云计算行业的标杆。”

来源:至顶网服务器频道

0赞

好文章,需要你的鼓励

2018

03/29

09:51

分享

点赞

邮件订阅
白皮书