ZDNet至顶网服务器频道 10月11日 新闻消息:AMD今天宣布与明导国际公司签署一项多年期协议,针对AMD出产的异构和多核处理器扩大开放源代码嵌入式Linux开发的可用性。该协议致力于为嵌入式开发人员提供更易于管理、更集中化的开源框架,为他们提供更多可支持的处理器选择、强大的开发工具,以及更快的开源平台开发速度。
作为一款可与Yocto Project软件兼容的产品,现在 Mentor® Embedded Linux将会带来标准化的功能和工具,并确保快速获取AMD 64位x86架构的最新板级支持包(BSP),最开始提供的是即将推出的AMD嵌入式G系列SoC(代号为“Steppe Eagle”,意即“草原雄鹰”)和AMD嵌入式R系列APU/CPU(代号为“ Bald Eagle”,意即“秃鹰”)。嵌入式系统开发人员将可以全面访问Mentor Embedded Linux开发平台,以进行定制化嵌入式Linux开发,获取商业支持以及免费的Mentor Embedded Linux 精简版衍生工具——该工具提供了评估基于AMD嵌入式处理器的Linux的所有必要元素。
为了应对嵌入式系统日益增加的复杂性,嵌入式开发人员还将可以获取Sourcery™ CodeBench,以便更加深入地了解系统运行情况与性能,并调试Linux嵌入式系统中的应用程序。
AMD公司副总裁、嵌入式解决方案事业部总经理Scott Aylor表示, “与市场上最大的独立嵌入式Linux与工具供应商开展合作,是我们在继续投资嵌入式市场的过程中向前迈出的令人振奋的一步。我们将为嵌入式开发人员提供一个可供选择的机会;与明导国际签署的这份协议为嵌入式领域带来了一个开源平台,以帮助调整和扩展开发人员的开发”。
明导国际公司嵌入式软件事业部(Mentor Graphics Embedded Software Division)嵌入式执行解决方案总经理Scot Morrison表示,“鉴于AMD的发展愿景和嵌入式解决方案创新技术产品组合,明导国际很高兴能与AMD合作。我们期待利用即将推出的AMD嵌入式G系列和R系列产品,向市场提供业界最强大的开源开发生态系统”。
主要特点、优势与支持
作为AMD和明导国际公司之间所签署协议的一部分,嵌入式开发人员将可以获取以下定制化嵌入式Linux开发产品:
Mentor Embedded Linux 精简版
o免费支持对即将推出的AMD“Steppe Eagle”(草原之鹰)和“Bald Eagle”(秃鹰)产品进行评估和原型制作。
o与Yocto Project兼容。
o提供根文件系统和内核的二进制镜像。
o提供访问所有开源组件来源的权限。
o可无缝迁移到以获取商业支持的Mentor Embedded Linux
Mentor Embedded Linux
o具备项目开发的商业条款,包括漏洞修复、安全补丁和产品更新。
o提供基于Eclipse的Sourcery Codebench开发环境和数据跟踪分析及可视化功能。
o拥有针对独一无二的项目需求的可定制能力,包括自定义BSP(板级支持包)开发、后端移植和长期支持。
Sourcery CodeBench 精简版
o提供完整的基于GNU的C/C++开发与调试工具链,用于开发自定义Linux目标平台。
o提供基于Windows和Linux主机的开发选择。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。