英国芯片厂商Arm今天表示,将在最新的Armv8-M架构中添加“Arm Custom Instructions”功能。
此举是为了让客户可以将针对嵌入式和物联网应用的特定指令添加到CPU中。Armv8-M架构是Arm现有M33 Cortex-M低功耗处理器系列的基础架构,该系列处理器主要面向一系列物联网和移动设备。
Arm的商业模式与其他芯片制造商明显不同之处在于,Arm将芯片设计许可给合作伙伴,然后由合作伙伴自己开发实际的硬件,其中很多合作伙伴都希望适配Arm的设计,这样就可以开发用于特定任务的处理器,提供更高的性能和效率。
Arm今天在第15届Arm TechCon 2019年度大会上表示,Arm Custom Instructions是建立在Arm芯片合作伙伴创新这一理念基础上的。Arm公司首席执行官Simon Segars在今天上午的主题演讲中表示:“在芯片中增加灵活性是有空间的,例如增加了并非所有工作负载都需要的计算或安全功能。”
Arm Custom Instructions让芯片设计人员可以向其M33 Cortex-M CPU中添加“自定义数据路径扩展”。Arm表示,通过这种方式他们就可以打造各种加速器,从而在人工智能、机器学习和自动驾驶汽车等边缘计算用例实现更高的性能。
Moor Insights&Strategy总裁兼首席分析师Patrick Moorhead表示:“ Arm的自定义指令可以帮助解决芯片制造商在不使用加速卡的情况下以低延迟增加加速的问题。这是一种很新颖的方法,因为它支持‘自带指令',意味着芯片制造商可以以结构化的方式添加自己的IP,而且这也不会取代高端加速器芯片。”
确实,Segars在今天上午的主题演讲中再次强调了Arm的目标,即让Arm芯片满足大范围的计算需求,特别是随着5G网络、物联网和人工智能技术发展成熟的时候。他说:“我们希望涵盖一切,从最大的计算机到最小的传感器。”
Arm表示,将于明年上半年在其M33 CPU中实现自定义指令,而无需向被许可方支付任何额外费用。
在这次大会上Arm还宣布将为针对低功率物联网设备的Mbed操作系统引入一种新的治理模型。Mbed OS包含了开发人员基于Arm Cortex-M微控制器开发连接产品所需的所有功能,包括安全性、连接性、RTOS,以及用于传感器和I/O设备的驱动程序。
Arm表示,Mbed OS Partner Governance治理模型让用户在未来操作系统开发过程中拥有更多发言权,从而加强创新。伴随这个新模型的推出,Arm将成立一个新的产品工作组,该工作组每月开一次会,以应优先考虑哪些新Mbed OS功能进行投票,而且会议对Mbed Silicon合作伙伴计划的所有成员开放。
“Mbed OS一直是开源的物联网操作系统,同时我们也在不断改变其治理方式,以便我们的芯片合作伙伴可以直接参与到未来的发展中,加大我们在构建新功能和特性方面的努力,而这对于我们扩展到一万亿个互联设备的目标来说至关重要。”
此外,Arm最近还与Robert Bosch GmbH、Continental AG、Denso、General Motors、Nvidia、NXP Semiconductors和Toyota Motor等合作伙伴宣布成立了一个新的“自动驾驶汽车计算联盟”。
该联盟的目标是尝试克服在打造全自动驾驶汽车方面的一些最大挑战,首要任务之一就是提出“针对系统架构和计算平台的一系列建议,让自动驾驶系统的性能要求与车辆特定的要求和局限相协调”。
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。