ZDNet至顶网服务器频道 04月09日 新闻消息:深圳英特尔信息技术峰会(Intel Developer Forum,IDF2015)进入了第二天的日程,英特尔于今日发布了英特尔® 固件引擎(Intel® Firmware Engine)。旨在简化固件的开发过程,并根据不同平台的特性定制其固件功能,为用户提供一个问题少、成本低、耗时短的高效解决方案。
当一个企业的最新产品需要固件时,通常有两方法可以解决:其一,使用参考设计,包括基于统一可扩展固件接口(Unified Extensible Firmware Interface,UEFI)的启动固件,但用户不能原封不动的使用它,因为它并非为企业平台量身定制。用户不能进行自定义更改它的二进制文件,也没有源代码进行定制;其二,企业可以选择从头开始构建,但如果企业没有固件开发的经验,就会面对一个陡峭的学习曲线,这就意味着要增加时间和预算外的成本。要如何保证产品能够准时、在预算内、按规格地进行生产,就需要一个好的方法来解决固件问题。
英特尔® 固件引擎是一款免费的图形化工具,用以简化和加速平台固件镜像的创建,帮助用户快速开发系统固件,并采用全新的纯二进制方法,加速初始化硬件平台以及启动Microsoft* Windows, Android* 和 Linux* 等操作系统所必需的基础软件的创建过程。
英特尔公司副总裁兼软件与服务事业部系统技术和优化部门总经理Michael Greene表示:“英特尔固件引擎允许开发者基于英特尔架构的参考设计快速部署其平台固件,用户可以简单地从相互兼容的组件库中选取所需功能并进行参数配置,构建种类齐全且相互兼容的组件库,且无需修改任何源代码。”
用户可以通过图形化界面对固件进行快速配置和定制,方便地配置或删除参考设计平台中已有的固件组件,添加参考设计平台中未提供的第三方固件组件,并整合用户自定义的启动有效负载。这个过程很简单:首先,从已验证的英特尔二进制组件和英特尔设计的参考平台开始,然后使用英特尔图形界面来修改参考设计,为平台构建UEFI固件。这样,可以用更短的时间获得基于标准的固件,降低成本和出错率。
另外,英特尔固件引擎报告生成器有助于安排用户的项目,为已创建的固件总结功能和设定;高级用户还可以将UEFI应用和驱动程序添加至固件镜像,英特尔固件引擎能为任何支持UEFI启动的操作系统生成固件,并支持广泛的英特尔技术,包括基于英特尔® 凌动TM 处理器的系统。凭借英特尔固件引擎,用户可以比以往更加快速、轻松地创建丰富的可自定义固件。这就意味着,产品能够以更低成本、更快速地上市。
英特尔固件引擎主要关注于使用英特尔® 凌动TM 和英特尔® 夸克TM 处理器的物联网(loT)边缘设备、嵌入式设备、平板电脑,以及中国技术生态系统(CTE)合作伙伴,还能够为基于英特尔参考设计的平台提供基本的固件需求。开发人员可以使用英特尔® 固件引擎软件开发工具包(Intel® Firmware Engine SDK)来扩展功能及现有的英特尔® UDK2014代码。芯片组件供应商和固件开发人员还可以利用UEFI驱动源代码,快速扩大英特尔固件引擎生态系统。
英特尔亚太研发有限公司平台软件架构部总监卢炬表示:“英特尔固件引擎提供了一个完整的固件解决方案平台,在生成标准固件时,并不需要开发人员对固件的底层了解的非常清楚,并提供一个软件开发工具包,帮助用户开发新的功能。大大降低了开发的复杂性。”
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
延世大学研究团队通过分析AI推理过程中的信息密度模式,发现成功的AI推理遵循特定规律:局部信息分布平稳但全局可以不均匀。这一发现颠覆了传统的均匀信息密度假说在AI领域的应用,为构建更可靠的AI推理系统提供了新思路,在数学竞赛等高难度任务中显著提升了AI的推理准确率。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
蒙特利尔大学团队发现让AI"分段思考"的革命性方法Delethink,通过模仿人类推理模式将长篇思考分解为固定长度块,仅保留关键信息摘要。1.5B小模型击败传统大模型,训练成本降至四分之一,计算复杂度从平方级降为线性级,能处理十万词汇超长推理,为高效AI推理开辟新道路。