2019年11月7日,北京——在今天举行的腾讯云Techo开发者大会上,英特尔和腾讯云共同宣布了一系列云计算的创新合作:双方发布腾讯云大学云市场英特尔专区,这是腾讯云大学首个与业界领先厂商合作的线上学习专区;同时,基于第二代英特尔至强可扩展处理器的腾讯云在MLPerf首个AI推理性能评测中创造纪录,显示了其领先的AI推理性能;英特尔还为腾讯智能钛机器学习平台(TI Machine Learning,TI-ML)进行加速,在日益丰富的AI应用场景中,提供了更加快速的平台工具,赋能更多用户,推动云计算发展。
英特尔一直以从云到端的全面的产品组合推动着云计算的发展,不仅在网络基础架构及智能边缘等领域进行创新,同时也关注开源生态的建设,并支持多种高成长性的工作负载,帮助企业实现更快数据传输、更强数据存储、更全数据处理,不断挖掘数据价值,助力企业发展和数字化转型。英特尔正在与腾讯全面合作,从云市场学习专区,到云产品创新,紧密携手引领云计算变革,共赢数字新纪元。
本次双方合作的云市场英特尔专区属于腾讯云大学的板块,腾讯云大学是腾讯云生态用户的一站式学习成长平台, 由在线学习中心、人才培养计划、培训认证中心和校企合作中心等构成。在云市场英特尔专区中,英特尔不仅提供云计算和云产品教程,还提供最新软件技术,同时还为腾讯云市场提供商业补贴,已经支持了逾100000名开发者,以低成本快速开发应用。双方以先进技术理念和一站式服务支持开发者,以平台级能力赋能开源生态。
英特尔和腾讯云不仅在人才培养和生态建设上加深合作,在云产品中也不断创新。英特尔软件团队支持腾讯AI推理云TI-EMS在MLPerf首个AI推理性能评测中创造了纪录。MLPerf 是数十家业界厂商共同倡导针对AI的性能评测标准,为各大AI软硬件厂商所广泛认可,也是客户选择云上AI服务的重要参考标准。
在此次MLPerf的性能评测中,基于第二代英特尔至强可扩展处理器及英特尔深度学习加速技术(Intel DL Boost),结合PyTorch的深度优化,腾讯AI推理云TI-EMS获得了业界领先的performance/TOPS性能,在最能体现算力能效的Offline模式下,每T算力是GPU所达性能的2-3倍。基于通用框架(PyTorch)的CPU方案不仅更易部署、更具灵活性,还充分挖掘了CPU的深度学习计算能力,为客户提供一站式的AI服务,更好地满足“企业上云”的需求。
为更好地服务云生态用户,英特尔支持了腾讯智能钛机器学习(TI Machine Learning,TI-ML),它是腾讯云上的一站式机器学习生态服务平台。它能够对各种数据源、组件、算法、模型和评估模块进行组合,用户在其之上能够方便地进行模型训练、评估和预测。
英特尔和腾讯云从数据处理,算法模型到预测及训练方面推进着一系列的合作。腾讯云在行业内率先采用英特尔OpenVINO进行优化,使得该平台的推理性能较之前有了平均1.8倍的提升;基于英特尔DL Boost以及从CPU硬件指令集层面所做的优化,平台的推理服务性能再提升了2.4倍;值得一提的是在该平台上为客户增加了基于英特尔至强可扩展处理器的选项,并且基于英特尔Analytics Zoo丰富了算法库;同时双方还在推进全栈式端到端的AutoML开发(Automated Machine learning),来帮助客户更易构建和优化AI应用。
英特尔公司副总裁兼云平台与技术事业部总经理Jason Grebe表示:“我们对基于英特尔至强可扩展平台上测试出的MLPerf推理结果感到很兴奋。腾讯是云计算领域的领导者,与英特尔有着长期的技术创新合作,在MLPerf上展示了出色的人工智能推理能力,这将为其客户带来更快的计算和服务。”
腾讯云副总裁黄世飞表示:“基于英特尔软硬件的全方位支持,腾讯云在云计算领域不断获得创新突破,使腾讯云获得了业界领先的服务性能。我们希望与英特尔进行更深入的合作,在数据时代加速数字化转型,开创云计算的未来。”
好文章,需要你的鼓励
这项研究提出了HoPE(混合位置编码),一种针对视觉语言模型的新型位置编码技术,专门解决长视频理解的挑战。传统位置编码技术在处理长视频时表现不佳,HoPE通过两个创新解决了这一问题:混合频率分配策略(为空间信息分配高频,时间维度使用零频率)和动态时间缩放机制(根据视频速度灵活调整时间编码)。实验证明,HoPE在长视频理解和检索任务上分别提升了8.35%和22.23%,为AI更准确理解长视频内容开辟了新途径。
东京大学研究团队推出MangaVQA基准和MangaLMM模型,专门用于评估和提升AI对日本漫画的理解能力。MangaVQA由526个高质量手动创建的问答对组成,用于评估AI系统对漫画内容的深入理解;MangaOCR则专注于漫画页内文本识别。基于这两个基准,研究团队从开源多模态模型Qwen2.5-VL微调出MangaLMM,能同时处理文本识别和内容理解任务。实验显示,即使是GPT-4o等顶尖商业模型在处理漫画的独特复杂性时也面临挑战,而专门训练的MangaLMM表现出色。
这项研究由ISTA和谷歌研究院联合开发的"影响力蒸馏"方法,通过利用二阶信息为训练样本分配最优权重,实现了大语言模型训练数据的高效选择。该方法在数学上有坚实理论支持,并创新性地引入"地标"近似技术,仅需计算少量样本的精确影响力,再高效传播到其他样本,大幅降低计算成本。实验证明,该方法在多种模型和任务上均优于或匹配现有技术,同时实现了高达3.5倍的速度提升,为大模型训练开辟了更高效的路径。
来自哈佛大学等顶尖学府的研究团队在这篇论文中挑战了传统观念,认为Token压缩不仅仅是提高AI模型运行效率的工具,更应成为生成式AI模型设计的核心原则。研究表明,精心设计的Token压缩策略可以促进多模态深度整合、减轻AI"幻觉"问题、增强处理长序列输入的能力,并提高训练稳定性。论文详细分析了现有方法的局限性,并提出了算法创新、强化学习指导和硬件协同设计等未来研究方向。