英特尔为汽车行业打造芯片级增强版硬件虚拟化功能,助力打造软件定义汽车
借助英特尔市场领先的芯片级增强版硬件虚拟化功能,英特尔汽车事业部旨在为行业提供具有卓越性能和超高效率的软件定义汽车(SDV)的架构方案,帮助用户获得99%的高效率和零延迟。这一高性能计算平台提供了足够的空间来处理多个软件工作负载,充分满足了汽车用户对高质量和个性化体验的期望。
英特尔院士、英特尔公司副总裁、汽车事业部总经理Jack Weast表示:“英特尔具备业界兼具强大功能和能效的虚拟化实施方案。缺乏这一能力,汽车制造商将难以打造他们所设想的下一代车载体验,无法为用户提供反应灵敏、性能强大的车载系统。”
英特尔推出全新软件定义汽车架构方案,以满足汽车行业的需求。汽车行业一直在朝着软件定义的未来迈进,并尝试借助虚拟机管理程序以实现软件虚拟化。但这也带来了一个瓶颈——它无法满足当今工作负载对性能不断增长的需求。英特尔的芯片级增强版分离方案打造了一个能够绕过虚拟机管理程序的直接路径,并在软件内为更高质量和新的工作负载提供了额外的性能,从而使消费者获得他们所期待的下一代功能和服务成为可能。
这一方案的工作原理是什么呢?大家可以将运行软件定义汽车(SDV)所需的算力想象成一台满电的电动汽车(EV)。大家普遍认为,如果车辆从家里(A点)直接到达预定的目的地(B点),它的性能是优化了的,如果有差别也仅在于不同车辆之间的差异。这正是英特尔芯片级增强版硬件虚拟化功能的工作原理,它能够让工作负载更为快速的抵达硬件层。但是,如果电动汽车被迫绕道到另一个地点(C点),那么它必须消耗更多的核心能源,行驶在路上的时间也会更长。这种被迫的“绕道”,与其它芯片供应商的做法颇为相似,也就是说,在工作负载抵达底层硬件之前,在软件层面上实施了过多的虚拟化功能,相当于多绕路走了一段到C点的路。这种绕路,最终会导致明显的性能衰减。
抛开汽车路程的类比,路径中的更多细节也能彰显英特尔市场领先的虚拟化功能所带来的诸多优势。这些优势是基于图形处理器(GPU)来实现的。
使用虚拟机管理程序的 GPU 软件虚拟化功能与英特尔基于硬件进行物理分隔的SDV之间的功能比较
上图显示了必须在软件中完成虚拟化,以及在芯片层面进行物理分隔所经过的不同路径。在图片左侧,想要通过虚拟机管理程序运行多个基于GPU的工作负载,虚拟机必须要先访问虚拟机管理程序,然后到服务操作系统(OS)层面,还需要额外的数百行代码,并使用宝贵的带宽,才能到达GPU。与之相对,当使用基于单根 I/O 虚拟化(SR-IOV)功能的英特尔SDV SoC时,每个工作负载都会被直接在GPU芯片层面分离,从而释放软件层,进而在零延迟的情况下实现更高的性能和功能。
使用GFX Manhattan 3.0(离屏)的 SR-IOV和仅虚拟分离(VirtIO)的性能基准比较
第二幅图显示了英特尔SDV系统级芯片(SoC)与仅虚拟分离(VirtIO)方案相比下的效率优势。行业标准图形基准GFX Manhattan 3.0(离屏)的测试结果显示,在运行单一工作负载时,英特尔方案的运行效率可达99%,而竞争对手的运行效率约为43%。实际上,这意味着如果运行一个需要每秒100帧(FPS)的工作负载,使用英特尔解决方案,可以在零延迟的情况下获得99 FPS,而使用其他解决方案,只能获得43 FPS的速度,且还会遇到与工作负载相关的额外延迟。这个例子仅仅是英特尔市场领先的虚拟化功能的浅层优势。这些优势同样适用于基于AI的工作负载,甚至不使用GPU或AI加速器的无显示工作负载。
该方案的推出对于车载体验的提升有着非常重要的意义。虚拟化是开启用户所期待的下一代汽车体验的关键所在。有了它,驾驶员和乘客将体验到更灵敏、更强大的汽车,包括在玩游戏时获得更高的帧速率性能、体验到优美的3D地图应用程序而非继续使用2D地图,以及实现车内多个显示屏上的实时3D可视化,或通过实时AI 推理获得增强安全性等等。
这些功能的更新将通过便捷且稳定的OTA推送给用户。有了OTA,用户在汽车的整个生命周期内都能享受到最新的服务和功能。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。