中国北京 - 2023年4月4日 - Imagination Technologies中国董事长白农近日在中国电动汽车百人论坛上发表演讲,探讨了车规半导体核心IP技术如何推动汽车智能化发展,并接受了媒体采访。本次论坛上,他强调了IP技术在汽车产业链中日益重要的地位和供应商的位置前移。类比手机行业的发展,汽车产业需要IP与产业链更加紧密的合作。白农认为,在当前国产芯片的大背景下,核心IP显得尤为重要。

车规半导体IP技术的发展助力智能网联汽车
白农指出,IP技术是半导体行业的基石,推动了汽车智能化的发展。以Imagination的GPU为例,超过17年里9代GPU产品进入了汽车市场,超过3亿台基于PVR GPU的设备上车。Imagination是最早拥有GPU硬件虚拟化技术的IP厂商,实现一芯多屏并确保功能安全,提高了座舱体验。而Imagination 神经网络加速器NNA则加速了ADAS/AD落地。此外,Imagination的高性能车规级CPU升级域/区域控制器,有助于汽车电子架构中央集成化与异构计算趋势。白农认为,在IP层面,GPU + CPU + AI加速器的IP级别多核异构架构才能满足高等级自动驾驶的安全需要。
从2019年开始,Imagination推出全新架构的A系列GPU,成为当时行业最高性能的GPU IP之一,并获得了国内一些汽车芯片企业的青睐和采用。Imagination正在加快步伐一年一代的迭代产品,而每系列可以根据应用场景的需求来配置性能,功耗和成本等关键参数。在2020年,Imagination推出了针对汽车市场的BXS系列GPU,取得了巨大的成功,获得了ISO26262认证并赢得了许多一线厂商的信任。今年1月份,Imagination隆重推出了其新一代GPU IP产品IMG DXT,其单核达到2.25T的浮点运算能力和72GB像素填充能力,以及强大的AI推理能力,同时支持光线追踪技术可配置化和可扩展化。Imagination期待与汽车企业一起利用D系列GPU IP为汽车智能化应用带来创新性的突破,并设计出中国领先的舱驾一体芯片。想象力和创新将是实现这一目标的关键。

Imagination在中国持续投资并强化生态建设
白农指出,未来车规半导体IP技术的发展将继续推动汽车产业的变革和升级,为车联网、自动驾驶等新兴领域提供更加安全、高效的解决方案。他呼吁各产业链环节更加紧密地合作,共同推进车规半导体IP技术的研发和应用。Imagination在过去三年里深刻感受到IP与产业链的结合越来越紧密,尤其是在中国。为此,Imagination已经加大在中国的投资,建立了软件的研发团队,并与生态伙伴、开发者、下游客户等建立合作,以更好地服务于中国的产业链和客户,加速中国汽车产业的发展。
此外,白农还提到,Imagination正在思考IP公司在中国产业界的新的定位,从销售导向转变为市场导向,根据本地市场和客户的要求定义产品,并加强提升技术人员提升对客户支持的能力。与此同时,Imagination也与产业链的各环节的玩家合作,帮助他们造芯,并与OEM共同定义计算架构,制定芯片选型标准。与Tier1一起联合打造高竞争力和差异化的驾舱或者ADAS方案,同时与软件算法公司的软硬一体协同优化。这些措施旨在更好地赋能汽车产业的发展,也是Imagination在中国的重要战略之一。
最后,白农在中国电动汽车百人论坛上的演讲引起了与会嘉宾的广泛关注和探讨,为中国半导体及汽车产业的发展提供了新的思路和方向。作为全球领先的半导体知识产权和技术提供商,Imagination将继续致力于推进车规半导体IP技术的创新和应用,为全球汽车产业的发展注入新的动力。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。