AMD发布新款旗舰桌面处理器Ryzen 9 9950X3D2双版本,配备16个核心和高达208MB的超大缓存池。该处理器是9950X3D的改进版,两个计算芯片组均配备64MB SRAM瓦片,将L3缓存从128MB提升至192MB。更大的缓存有利于游戏等数据密集型工作负载,预计在生产工作负载中性能提升5-13%。该处理器基础频率4.3GHz,最大加速频率5.6GHz,计划4月22日上市。
苹果推出搭载M5芯片的MacBook Air,以及配备M5 Pro和M5 Max芯片的MacBook Pro。M5芯片采用全新融合架构,性能提升30%,AI运算速度提升4倍。MacBook Air起价1099美元,MacBook Pro起价1699美元。同时发布27英寸Studio Display和Studio Display XDR显示器,支持雷雳5接口。新产品3月4日开启预订,3月11日正式发售。
高通在2026年世界移动通信大会上发布全新Snapdragon Wear Elite芯片,旨在推动个人AI设备新时代。该芯片集成Hexagon NPU,支持十亿参数边缘模型,实现设备端高性能AI处理。相比前代产品,单核CPU性能提升5倍,应用启动速度快7倍,电池续航延长30%,10分钟快充至50%。芯片将应用于三星、谷歌、摩托罗拉等品牌的智能手表、智能眼镜、AI挂件等设备,为可穿戴设备提供更强的环境感知能力和自然语言交互体验。
三星PM9E1 4TB存储驱动采用M.2 2242小型设计,搭载PCIe Gen5总线和Gen 8 V-NAND芯片。该产品针对Nvidia DGX Spark AI工作站优化,提供1400万随机读IOPS和2.64万随机写IOPS,顺序读写速度分别达14.5GBps和12.6GBps,相比2021年的PM9A1 Gen4产品性能提升显著,特别适合大语言模型训练及推理场景。
AWS与AMD联合发布Amazon EC2 M8a实例,搭载第五代AMD EPYC处理器,最高频率4.5GHz。相比M7a实例性能提升30%,性价比提升19%。支持最高192个vCPU和768GB内存,网络带宽达75Gbps,EBS带宽60Gbps。适用于Web托管、微服务架构、数据库等通用工作负载,已在美国俄亥俄、俄勒冈和欧洲西班牙区域上线。
加州大学伯克利分校研究团队利用OpenEvolve开源工具,成功将专家并行负载均衡算法性能提升5倍。该算法用于大型语言模型中将令牌路由到专门的专家模块。研究人员通过AI驱动的系统研究方法,让AI模型迭代生成、评估和优化解决方案,仅花费不到10美元和5小时就实现了显著性能提升。研究表明AI在算法设计中的巨大潜力,未来有望广泛应用于系统性能优化领域。
AI平台公司Clarifai发布新推理引擎,声称能让AI模型运行速度提升一倍,成本降低40%。该系统采用多种优化技术,从CUDA内核到高级推测解码,能在相同硬件上获得更强推理性能。第三方测试显示其在吞吐量和延迟方面创下行业最佳记录。该产品专门针对推理过程优化,特别适用于需要多步骤响应的智能体和推理模型。
AMD推出ROCm 7.0软件平台,在推理性能上实现3.5倍提升,训练浮点性能提升3倍。该平台支持OCP微缩放数据类型硬件加速,引入AI张量引擎AITER,可将MLA解码操作提升17倍。结合MI355X芯片,AMD声称在DeepSeek R1推理负载中性能超越英伟达B200芯片1.3倍,并已集成至vLLM和SGLang等主流推理引擎中。
LibreOffice 25.8版本以"更智能、更快速、更可靠"为特色正式发布。新版本在多个方面实现性能优化,包括启动速度、文档滚动和文件打开速度的显著提升。该版本增强了对微软Office文档格式的兼容性,改进了连字符处理和字体兼容性,Calc表格组件新增十多个函数以更好支持Excel文件导入。值得注意的是,LibreOffice 25.8首次支持PDF 2.0格式导出,并具备PDF数字加密和签名功能。新版本提高了系统要求,不再支持Windows 7/8系列和32位系统。
Google 发布全新的 Gemini 2.5 Pro 实验版模型,号称是其"最智能"的 AI 模型。该模型具备 100 万 token 的上下文窗口、多模态处理能力和推理能力,在多项基准测试中表现优异。测试结果表明,这是目前最令人印象深刻的生成式 AI 模型之一。
Linux 内核 6.13 版本正式发布,带来了多项改进。主要包括 AMD CPU 和 GPU 的电源管理优化、对新硬件的支持、文件系统的改进以及新的内核调度模型。虽然这些变化对普通用户影响有限,但为未来的重大改进奠定了基础。
Meta发布开源大模型Llama-3,具有80亿和700亿参数版本,性能在推理、数学、代码生成等方面有显著提升。Llama-3采用了分组查询注意力、掩码等技术,提高了计算效率。预训练数据达15T tokens,支持多语言。测试显示Llama-3性能超过多个知名模型。