2018年9月20日,杭州 --2018年阿里巴巴云栖大会上,英特尔与阿里巴巴宣布,双方将紧密协作,通过革命性的技术,从超大型数据中心到边缘,加速自动驾驶、物联网等创新应用的部署,驱动以数据为中心的计算新时代。
双方在云栖大会共同宣布了以下重要合作:
英特尔公司执行副总裁,数据中心事业部总经理孙纳颐表示:“阿里巴巴正不断创新,基于英特尔技术搭建以数据为中心的计算架构,从云端到边缘,获取实时用户洞察。英特尔与阿里巴巴在硬件、软件、市场应用等领域紧密协作,双方部署了一系列面向工作负载优化的解决方案,让用户真正获益。”
阿里巴巴集团资深副总裁,阿里云总裁胡晓明表示:“我们与英特尔建立了长期战略合作伙伴关系,在一系列领域展开深入的技术合作协同。这包括了边缘计算、混合云、物联网以及智能移动出行等等。基于双方的优势技术,英特尔与阿里巴巴的强强联合,将加速驱动中国及整个亚洲地区的数字化进程。我们相信,双方的战略合作将引领技术创新,我们的全球客户将因此受益。”
英特尔与阿里巴巴加速边缘计算发展:英特尔和阿里云推出云边一体化边缘计算产品,可针对不同的计算场景定制端到云的物联网解决方案,例如工业制造、智慧楼宇、智慧小区等等。云边一体化边缘计算产品是一个针对物联网应用的开放性框架 ,包含了英特尔软硬件、最新人工智能技
术,以及阿里云IoT的平台、操作系统等产品。该平台利用计算机视觉和人工智能技术,将边缘数据转化为业务洞察。重庆瑞方渝美压铸有限公司(以下简称“渝美”)最近采用了该产品并已经获益。部署后,渝美生产线的产品检测能力得到显著提升,相比之前的人工检测手段成功率提升了5倍。
双方在全球范围内推动混合云解决方案:英特尔与阿里云宣布成立专有云产业联盟(Apsara Stack Industrial Alliance),该联盟专注为阿里云专有云解决方案平台建立生态体系。专有云基于英特尔至强可扩展处理器优化,是预置型混合云解决方案。对于大中型企业来说,该解决方案帮助他们在本地就能运行同阿里巴巴公共云所提供的超大规模云计算和大数据服务完全一致的混合云产品。与此同时,该联盟赋能中小企业,让中小企业与大企业一样,获得技术、基础架构与安全性,同时为他们提供更高级别的自动化、自助服务能力、成本效益及管理支持。
英特尔为阿里巴巴电商应用提供强劲支持:作为规模最大的电商促销活动,阿里巴巴曾在2017年的“双十一”购物节期间创下1682亿元人民币(250亿美元)的交易额。为应对将到来的“双十一”购物节活动,阿里巴巴将试用下一代英特尔®至强®可扩展处理器,以及即将上市的英特尔®傲腾™数据中心级持久内存,以支持阿里巴巴的Tair工作负载。Tair是阿里巴巴自研的key/value结构存储系统,广泛部署在阿里巴巴的众多核心应用,如淘宝、天猫。英特尔的计算、内存和存储方案经优化,能够有效支持阿里巴巴高互动性、数据密集的工作场景。尤其是“双十一”购物节高峰时段,基础架构需要在内存缓存中保留大量热数据,才能实现预期的吞吐量(每秒访问量),从而保证用户体验的流畅和快速响应。
英特尔与阿里巴巴加速奥运会的数字化转型:英特尔和阿里巴巴还将携手,推动奥运会的数字化转型。双方将首次在2020年东京奥运会,基于奥林匹克转播云(OBS Cloud),提供立体内容。作为奥运会全球合作伙伴,英特尔和阿里巴巴将与OBS一起,通过英特尔立体技术与虚拟现实技术的支持,为全球RHB组织(RHB,持权转播机构)打造更为高效、可靠的沉浸式媒体传输管道,改善观众体验,让他们更贴近赛场。此次合作展现英特尔强大的端到端能力,包括最新至强可扩展处理器为奥林匹克转播云提供有效支持,强大计算力处理海量数据,打造并传输沉浸式媒体内容。
英特尔和AliOS操作系统加速车路协同的商业化进程:英特尔正式成为阿里巴巴AliOS操作系统 车路协同的首批战略合作伙伴之一。该战略将支持智慧高速建设,创建数字化、智能化交通系统,实现车辆与路面间的协同。英特尔和AliOS将共同探索5G通信技术、基于英特尔至强处理器的边缘计算平台在V2X上的应用。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。