ZDNet至顶网服务器频道 04月09日 新闻消息:深圳英特尔信息技术峰会(Intel Developer Forum,IDF2015)进入了第二天的日程,英特尔于今日发布了英特尔® 固件引擎(Intel® Firmware Engine)。旨在简化固件的开发过程,并根据不同平台的特性定制其固件功能,为用户提供一个问题少、成本低、耗时短的高效解决方案。
当一个企业的最新产品需要固件时,通常有两方法可以解决:其一,使用参考设计,包括基于统一可扩展固件接口(Unified Extensible Firmware Interface,UEFI)的启动固件,但用户不能原封不动的使用它,因为它并非为企业平台量身定制。用户不能进行自定义更改它的二进制文件,也没有源代码进行定制;其二,企业可以选择从头开始构建,但如果企业没有固件开发的经验,就会面对一个陡峭的学习曲线,这就意味着要增加时间和预算外的成本。要如何保证产品能够准时、在预算内、按规格地进行生产,就需要一个好的方法来解决固件问题。
英特尔® 固件引擎是一款免费的图形化工具,用以简化和加速平台固件镜像的创建,帮助用户快速开发系统固件,并采用全新的纯二进制方法,加速初始化硬件平台以及启动Microsoft* Windows, Android* 和 Linux* 等操作系统所必需的基础软件的创建过程。
英特尔公司副总裁兼软件与服务事业部系统技术和优化部门总经理Michael Greene表示:“英特尔固件引擎允许开发者基于英特尔架构的参考设计快速部署其平台固件,用户可以简单地从相互兼容的组件库中选取所需功能并进行参数配置,构建种类齐全且相互兼容的组件库,且无需修改任何源代码。”
用户可以通过图形化界面对固件进行快速配置和定制,方便地配置或删除参考设计平台中已有的固件组件,添加参考设计平台中未提供的第三方固件组件,并整合用户自定义的启动有效负载。这个过程很简单:首先,从已验证的英特尔二进制组件和英特尔设计的参考平台开始,然后使用英特尔图形界面来修改参考设计,为平台构建UEFI固件。这样,可以用更短的时间获得基于标准的固件,降低成本和出错率。
另外,英特尔固件引擎报告生成器有助于安排用户的项目,为已创建的固件总结功能和设定;高级用户还可以将UEFI应用和驱动程序添加至固件镜像,英特尔固件引擎能为任何支持UEFI启动的操作系统生成固件,并支持广泛的英特尔技术,包括基于英特尔® 凌动TM 处理器的系统。凭借英特尔固件引擎,用户可以比以往更加快速、轻松地创建丰富的可自定义固件。这就意味着,产品能够以更低成本、更快速地上市。
英特尔固件引擎主要关注于使用英特尔® 凌动TM 和英特尔® 夸克TM 处理器的物联网(loT)边缘设备、嵌入式设备、平板电脑,以及中国技术生态系统(CTE)合作伙伴,还能够为基于英特尔参考设计的平台提供基本的固件需求。开发人员可以使用英特尔® 固件引擎软件开发工具包(Intel® Firmware Engine SDK)来扩展功能及现有的英特尔® UDK2014代码。芯片组件供应商和固件开发人员还可以利用UEFI驱动源代码,快速扩大英特尔固件引擎生态系统。
英特尔亚太研发有限公司平台软件架构部总监卢炬表示:“英特尔固件引擎提供了一个完整的固件解决方案平台,在生成标准固件时,并不需要开发人员对固件的底层了解的非常清楚,并提供一个软件开发工具包,帮助用户开发新的功能。大大降低了开发的复杂性。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。