ZDNet至顶网服务器频道 04月09日 新闻消息:深圳英特尔信息技术峰会(Intel Developer Forum,IDF2015)进入了第二天的日程,英特尔于今日发布了英特尔® 固件引擎(Intel® Firmware Engine)。旨在简化固件的开发过程,并根据不同平台的特性定制其固件功能,为用户提供一个问题少、成本低、耗时短的高效解决方案。
当一个企业的最新产品需要固件时,通常有两方法可以解决:其一,使用参考设计,包括基于统一可扩展固件接口(Unified Extensible Firmware Interface,UEFI)的启动固件,但用户不能原封不动的使用它,因为它并非为企业平台量身定制。用户不能进行自定义更改它的二进制文件,也没有源代码进行定制;其二,企业可以选择从头开始构建,但如果企业没有固件开发的经验,就会面对一个陡峭的学习曲线,这就意味着要增加时间和预算外的成本。要如何保证产品能够准时、在预算内、按规格地进行生产,就需要一个好的方法来解决固件问题。
英特尔® 固件引擎是一款免费的图形化工具,用以简化和加速平台固件镜像的创建,帮助用户快速开发系统固件,并采用全新的纯二进制方法,加速初始化硬件平台以及启动Microsoft* Windows, Android* 和 Linux* 等操作系统所必需的基础软件的创建过程。
英特尔公司副总裁兼软件与服务事业部系统技术和优化部门总经理Michael Greene表示:“英特尔固件引擎允许开发者基于英特尔架构的参考设计快速部署其平台固件,用户可以简单地从相互兼容的组件库中选取所需功能并进行参数配置,构建种类齐全且相互兼容的组件库,且无需修改任何源代码。”
用户可以通过图形化界面对固件进行快速配置和定制,方便地配置或删除参考设计平台中已有的固件组件,添加参考设计平台中未提供的第三方固件组件,并整合用户自定义的启动有效负载。这个过程很简单:首先,从已验证的英特尔二进制组件和英特尔设计的参考平台开始,然后使用英特尔图形界面来修改参考设计,为平台构建UEFI固件。这样,可以用更短的时间获得基于标准的固件,降低成本和出错率。
另外,英特尔固件引擎报告生成器有助于安排用户的项目,为已创建的固件总结功能和设定;高级用户还可以将UEFI应用和驱动程序添加至固件镜像,英特尔固件引擎能为任何支持UEFI启动的操作系统生成固件,并支持广泛的英特尔技术,包括基于英特尔® 凌动TM 处理器的系统。凭借英特尔固件引擎,用户可以比以往更加快速、轻松地创建丰富的可自定义固件。这就意味着,产品能够以更低成本、更快速地上市。
英特尔固件引擎主要关注于使用英特尔® 凌动TM 和英特尔® 夸克TM 处理器的物联网(loT)边缘设备、嵌入式设备、平板电脑,以及中国技术生态系统(CTE)合作伙伴,还能够为基于英特尔参考设计的平台提供基本的固件需求。开发人员可以使用英特尔® 固件引擎软件开发工具包(Intel® Firmware Engine SDK)来扩展功能及现有的英特尔® UDK2014代码。芯片组件供应商和固件开发人员还可以利用UEFI驱动源代码,快速扩大英特尔固件引擎生态系统。
英特尔亚太研发有限公司平台软件架构部总监卢炬表示:“英特尔固件引擎提供了一个完整的固件解决方案平台,在生成标准固件时,并不需要开发人员对固件的底层了解的非常清楚,并提供一个软件开发工具包,帮助用户开发新的功能。大大降低了开发的复杂性。”
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。