10月13日,Imagination Technologies(以下简称Imagination)宣布推出新一代的GPU产品IMG B系列(IMG B-Series)IP,具体包含BXE、BXM、BXT、BXS四个产品系列,其中BXE专门针对用户界面(UI)渲染和入门级游戏;BXM主要面向中档移动端游戏以及用于数字电视;BXT面向更高端需求;BXS是专门面向汽车市场。
Imagination、ARM、高通是移动GPU芯片的三大玩家,新一代GPU的推出扩展了Imagination的GPU IP阵营,进一步提升了Imagination与ARM、高通的竞争实力。
对于最新推出B系列GPU,Imagination Technologies首席执行官Simon Beresford-Wylie评价说:“IMG B系列建立在大量投资及A系列技术优势的基础上,同时增加了多核技术,以惊人的33种全新配置扩展了Imagination的GPU产品系列。凭借B系列产品,我们相信Imagination可以为每个人提供最佳的GPU,无论他们有何种需求。”
去年年底,Imagination曾推出了A系列的GPU,被Imagination称为是重大产品革新。A系列GPU与前一代产品PowerVR GPU相比,性能提升了 2.5 倍,而功耗则降低了 60%。而如今新推出B系列GPU是产品的再次升级,其各项指标也再次得到提升。根据Imagination提供的资料,B系列旗舰GPU提供了高达6 TFLOPS(每秒万亿次浮点运算)的计算能力,与前几代产品相比,功耗降低了多达30%,面积缩减了25%,且填充率比竞品IP内核高2.5倍。同时,可以针对给定的性能目标实现更低的功耗和高达35%的带宽降低,这使其成为顶级设计的理想解决方案。
B系列旗舰GPU提供了高达6 TFLOPS的计算能力
据悉,此次推出的B系统GPU应用了不少创新技术,包括多核技术、图像压缩技术、小芯片技术(chiplet)以及安全技术等等。特别是多核技术在新一代GPU中的应用不仅极大地提升了GPU的性能表现,同时也提供了更好的灵活性,能充分满足移动设备(从高端到入门级)、消费类设备、物联网、微控制器、数字电视(DTV)和汽车等多个市场的需求。
据Imagination技术产品管理高级总监Kristof Beets介绍,多核架构针对BXT和BXM内核的每个产品系列进行了优化,利用多个主核的扩展特性实现了GPU内核的多核扩展。多核架构结合了所有内核的能力,可以为单个应用提供最大化的性能,或者根据需要支持不同内核去运行独立的应用。而BXE内核提供了主核-次核的扩展模式,这是一种面积优化的解决方案,通过单个GPU内核提供了高性能,同时可以利用其HyperLane技术进行多任务处理。BXS汽车GPU内核也利用了多主核可扩展的特性,来支持性能扩展,以及跨多个内核进行安全检查,以确保正确运行。
B系列GPU还使用了IMGIC技术,这是市场上最先进的图像压缩技术,可为客户提供节省带宽的新选择。它提供了多达四种压缩等级:从像素完全无损模式,到可确保4:1或更佳压缩率的带宽极省模式。这为SoC设计人员提供了更高的灵活性,以优化性能或降低系统成本,同时保持出色的用户体验。IMGIC技术可以兼容B系列中的所有内核,这使得即便是最小的内核,也能够拥有Imagination行业领先的图像压缩技术优势。
另外值得一提的是,作为本次系列产品中专门面向汽车行业的BXS,符合ISO 26262标准的GPU,这使其成为迄今为止所开发的最先进的汽车GPU IP内核。而这背后是其具备全新的功能和安全机制,例如分块区域保护(Tile Region Protection),这些功能都集成在硬件中,从而可以在性能不受损的同时发挥这些功能。对于汽车GPU和自动驾驶汽车而言,这有利于提高安全性。
据悉,目前已经有多家客户与Imagination达成合作意向,其中芯动科技(Innosilicon)就已经与之达成新的授权合作协议,芯动科技将IMG B系列BXT集成到能支持桌面和数据中心应用的PCI-E规格的GPU独立显卡芯片之中。同时,双方还在探索进一步长期战略性合作,以将更多功能更强大的GPU显卡芯片推向市场。
好文章,需要你的鼓励
这项由加州大学圣地亚哥分校和微软研究院合作开发的REAL框架,通过程序分析反馈训练大型语言模型生成高质量代码。与传统方法不同,REAL采用强化学习将代码安全性和可维护性作为奖励信号,不依赖人工标注或特定规则。研究在多个数据集上的实验表明,REAL在保证功能正确性的同时显著提高了代码质量,有效解决了"即兴编程"中的安全漏洞和维护性问题,为AI辅助编程提供了新的范式。
加州大学伯克利分校与Meta FAIR研究团队开发了"Self-Challenging"框架,让大语言模型通过自己创建和解决任务来提升能力。该方法引入创新的"Code-as-Task"格式,包含指令、验证函数、示例解决方案和失败案例,确保生成的任务既可行又有挑战性。在工具计算、网页浏览、零售服务和航班预订四种环境测试中,仅使用自生成训练数据,Llama-3.1-8B模型性能提升了两倍多,证明AI可以通过自我挑战实现有效学习,减少对人类标注的依赖。
南洋理工大学与SenseTime Research合作提出了PoseFuse3D-KI,一种创新的人体中心关键帧插值框架。该方法将3D人体模型信息融入扩散过程,解决了现有技术在处理复杂人体动作时产生扭曲结果的问题。研究团队开发了专门的SMPL-X编码器直接从3D空间提取几何信息,并设计了融合网络将3D线索与2D姿态无缝整合。他们还构建了CHKI-Video数据集,包含2,614个视频片段及完整的人体标注。实验结果显示,PoseFuse3D-KI在PSNR上提升9%,LPIPS减少38%,显著超越现有方法。
这项研究提出了LongGuide算法,解决了大型语言模型在长文本生成任务中的局限性。研究团队发现,仅依靠上下文学习无法使模型充分掌握文本的语言和格式特性。LongGuide通过自动生成两种指导原则:度量指导原则和输出约束指导原则,显著提升了模型性能。在七种长文本生成任务中,该方法使开源和闭源模型的ROUGE-L评分平均提高约6%。LongGuide具有通用性强、易于学习、成本效益高等优点,为提升AI长文本生成能力提供了新方向。