2018年9月13日,重庆——今天,2018英特尔物联网峰会拉开帷幕,英特尔和超过150多名合作伙伴围绕以数据为中心的计算新时代,探讨了物联网在人工智能影响下的发展趋势,分享如何从技术、平台和标准等方面深化物联网领域的产业合作,强调了英特尔物联网全新战略和业务重点。英特尔还公布了和中国合作伙伴在物联网领域的合作新进展,包括和中国合作伙伴推出的12个英特尔物联网行业整体解决方案,加速了物联网技术应用的市场化进程。
以数据驱动的新工业革命时代已经到来,云的规模无限扩大,深入到网络并进而延伸到边缘,5G技术即将到来,人工智能和分析技术快速增长,为市场带来了巨大的变革,所有这些都将产生大量未利用的数据。据分析师预测,到2025年,全球数据量将剧增至现在的10倍,达到163ZB。英特尔正在进行以数据为中心的转型,从端口设备到云计算,加上内存和存储、FPGA加速器技术、 再加上网络以及5G连接技术和软件支持,成为数据革命的驱动力。
英特尔预计以数据为中心将带来巨大而快速增长业务机会(2022年将达到2000多亿美元),其中物联网潜在机会将达330多亿美元。面对如此巨大的潜在市场,以及客户对于从海量的数据中获取更多价值的需求,英特尔的物联网战略也非常清晰,即面向零售、视频、工业和智慧城市等重点行业,为物联网设计高性能芯片,增强边缘计算,专注于计算机视觉。在面对物联网应用的独特需求,英特尔物联网的产品包括从凌动到至强英特尔全系列处理器来支持各种行业应用;英特尔的管理和虚拟化技术、Movidius芯片、FPGA为代表的硬件加速、5G等互联技术;以OpenVino为代表工具包/软件加速物联网应用的开发。
英特尔公司高级副总裁兼物联网事业部总经理Thomas Lantzsch
英特尔公司高级副总裁兼物联网事业部总经理Thomas Lantzsch表示:“英特尔在物联网领域不断开创新技术,为工业创新奠定数据驱动型的技术基础。我们将持续聚焦物联网芯片、边缘计算和计算机视觉三大重点,以快速面向市场加深整个生态合作,助力以数据为中心的时代变革,成就智能互联的未来。”
生态合作是英特尔物联网业务的战略核心之一,英特尔继续通过产业联盟及各类支持计划,推动物联网生态系统的发展。其中英特尔物联网行业整体解决方案是英特尔加速物联网应用和部署有效推广策略之一,即经过英特尔验证的、面向市场部署已经就绪的端到端的解决方案,旨在助力物联网客户快速将数据转化为可执行的洞察。这些方案具备为数据密集型工作负载优化、适应性强、可扩展, 并能够立即部署的优势。目前已经有众多英特尔物联网行业整体解决方案涵盖了工业、智慧城市、智能零售、智慧教育等领域。
在本次物联网峰会上,英特尔重点介绍了在中国的产业伙伴在教育、工业、视频等方面合作进展和最佳实践。英特尔还分享了工业物联网方面的愿景、解决方案、生态布局和关键性投资。在智能零售方面,英特尔分享了包括边缘计算负载整合等智能响应式物联网技术,助力零售业的数字化转型。英特尔还携手本地的合作伙伴,现场展示了包括零售、安防和工业等行业在内的几十个基于英特尔技术的物联网产品和解决方案。
英特尔物联网事业部副总裁兼中国区总经理陈伟博士表示:“凭借着英特尔在物联网领域丰富的经验、创新技术以及在细分行业全面布局,英特尔继续拓展生态合作,联合中国的合作伙伴以视觉计算、人工智能和边缘计算为助力,驱动物联网在中国的全面升级,推动端到端智能的物联网在中国的加速落地和应用。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。