中国·北京 – 2024年1月8日 - MulticoreWare Inc与Imagination Technologies共同宣布已在德州仪器TDA4VM处理器上实现了GPU计算,不仅使算力提升了约50 GFLOPS,而且还实现了自动驾驶和高级驾驶辅助系统(ADAS)常见工作负载性能的跃升。
此次合作使得在高分辨率(3200x2000)图像上使用GPU运行StereoBM(Stereo Block Matching)算法的性能比使用CPU提高了100多倍,这使汽车行业的客户能够使用支持OpenCL™的IMG BXS GPU,在TDA4系统级芯片(SoC)上实现传感器处理工作负载(摄像头、雷达和激光雷达)的性能功耗比最大化,增强了平台上的其他现成计算加速器。
MulticoreWare副总裁兼汽车和交通运输业务部门总经理Vish Rajalingam表示:“汽车软件的变革推动了在低功耗SoC上无缝衔接各种智能化功能的需求。我们在所有主要AI加速器、GPU和SoC上使用OpenCL和Edge AI的经验给汽车行业的未来带来了无限的可能性。我们十分高兴能与Imagination及其客户一起深入改变这个激动人心的行业。”
为了高效率地发挥GPU核的作用,MulticoreWare对StereoBM算法进行了优化。IMG BXS-4-64 GPU内置函数与自适应内存处理有助于在具有更高分辨率的摄像头数据上实现最佳性能。
Imagination产品管理副总裁Jake Kochnowicz表示:“图形处理器在汽车中的作用远不止在显示器上渲染像素这样的传统工作,还能支持汽车ADAS工作负载的灵活、可编程和高性能方案。在软件定义汽车的整个生命周期中,硬件很早就已经被确定下来,因此GPU 正成为一项关键的差异化因素,它可以在一个对用户友好的软件环境中解锁新的功能。此次与MulticoreWare的合作充分证明了这一点。”
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。