两年前,英特尔面向物联网领域推出了Quark芯片,其尺寸仅为Atom的五分之一,堪称市面上最小的x86处理器。目前这款芯片已经用在了英特尔的Curie平台上。
近日,英特尔发布了新的Quark低耗能系列芯片产品,推动自有物联网平台的升级。英特尔介绍,Quark系列新款芯片能够给设备增加先进的模式匹配功能,使得设备能够进行自主学习,并且最终或将转化成自动化的分析和决策技术。
据介绍,英特尔新款Quark系列芯片通常包含内存和其他特性,例如Quark芯片包含有内置的模式识别电路,能鉴别来自外界传感器的异常信息。此外,Quark芯片还能在极端高、低温环境下运行。
虽然Quark仍然基于x86架构,但不是目前的Core结构,而是和ARM类似更加传统的ISA指令集的另一个扩充,不仅精简了指令还避免了太多的不必要的耗能,避免了太多的不需要的处理时间,而且大大扩充了通讯方面的指令。
英特尔物联网项目负责人、高级副总裁Douglas Davis指出,Quark D1000芯片虽在某些方面传承了x86芯片设计,但它本质上并不是一款x86芯片。因为它不支持Windows操作系统和其他传统的x86软件,它的诞生是为了迎合物联网软件指令直接在硬件上运行的特点。
ARM相比传统的x86最大的优势就是ARM指令集是Open的,而英特尔的策略相对封闭,这是ARM在移动设备上秒杀x86的原因之一。
英特尔曾表示,Quark可以给第三方发挥的空间,客户可以将功能模块集成至Quark,甚至可以将Quark给代工厂制造。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。