性能优化 关键字列表
ChatGPT-5震撼发布,教育界准备好了吗?

ChatGPT-5震撼发布,教育界准备好了吗?

OpenAI发布了最先进的GPT-5语言模型,虽未实现通用人工智能但影响深远。GPT-5采用统一系统架构,具备智能路由机制和自适应推理能力,在编程、数学推理等多项基准测试中创新高。该模型已免费向所有用户开放并集成到微软生态系统中。对教育领域而言,GPT-5提供个性化辅导功能,将深刻改变学习方式,教育机构必须积极适应这一变革。

Snowflake为自家分析引擎构建Spark客户端连接器

Snowflake为自家分析引擎构建Spark客户端连接器

Snowflake推出客户端连接器,支持在其云数据仓库中直接运行Apache Spark代码,无需集群设置。该方案基于Spark Connect的客户端-服务器架构,让用户可以使用Spark客户端连接Snowflake分析引擎。据称,预览用户的代码运行性能平均提升5.6倍,成本降低约40%。此举体现了数据湖和数据仓库市场的融合趋势。

Anthropic发布Claude 4.1编程测试称霸,GPT-5即将来袭

Anthropic发布Claude 4.1编程测试称霸,GPT-5即将来袭

Anthropic周一发布旗舰AI模型升级版Claude Opus 4.1,在SWE-bench Verified基准测试中获得74.5%成绩,超越OpenAI o3模型的69.1%和谷歌Gemini 2.5 Pro的67.2%。该公司年收入从10亿美元增至50亿美元,但近一半API收入依赖Cursor和GitHub Copilot两大客户。新模型采用最严格ASL-3安全协议,在多文件代码重构方面表现突出,但面临GPT-5竞争威胁。

MLPerf存储基准测试v2.0显示阵列性能大幅提升

MLPerf存储基准测试v2.0显示阵列性能大幅提升

MLPerf存储基准测试第二版显示,测试系统服务的加速器数量比2023年1.0版本增加约一倍。MLCommons表示本轮测试参与度大幅提高,提交机构地域代表性更强,系统多样性更丰富。该基准测试评估存储系统在Unet3D、Cosmoflow和Resnet50 AI训练任务中的性能,以及Llama 3训练中的检查点性能。随着AI训练集群GPU数量增加,故障率上升,检查点技术成为标准做法。

美光推出276层SSD三剑客:兼顾速度、容量与稳定性

美光推出276层SSD三剑客:兼顾速度、容量与稳定性

美光发布三款新一代SSD产品,均采用最新276层3D NAND技术。9650为PCIe Gen 6高速TLC驱动器,最高提供550万IOPS随机读取性能;6600 ION是容量高达122.88TB的PCIe Gen 5 QLC存储产品;7600则是专为低延迟设计的PCIe Gen 5 TLC驱动器。三款产品分别针对AI加速、大容量存储和企业级应用场景,集成美光自研DRAM、控制器和固件技术。

Linux内核6.16发布:代码量达3800万行但缺乏重大新特性

Linux内核6.16发布:代码量达3800万行但缺乏重大新特性

Linux内核6.16在周末发布,虽然没有重大新功能,但包含大量错误修复和代码优化。该版本拥有3840万行代码,分布在超过78000个文件中。主要改进包括:支持英特尔2023年高级性能扩展,XFS和ext4文件系统性能优化,NUMA系统自动调优,五级页表支持,以及USB硬件声音解码卸载功能。这些改进展现了Linux在大型服务器到小型设备的广泛应用范围。

Xinnor声称RAID重建速度远超Linux mdraid

Xinnor声称RAID重建速度远超Linux mdraid

软件RAID供应商Xinnor宣称其技术可在仅五小时多一点的时间内重建61.44TB SSD,速度约为传统Linux RAID重建软件的10倍。Xinnor的xiRAID产品将数据分布在驱动器集群中,每个驱动器上都有备用区域,故障驱动器的数据会恢复到这些区域,从而减少总体重建时间。测试显示,在有主机工作负载的情况下,使用xiRAID重建速度比Linux mdraid快约30倍,且写入放大因子低23%。

三星Galaxy AI大幅提升移动游戏性能表现

三星Galaxy AI大幅提升移动游戏性能表现

三星Galaxy S25系列搭载骁龙8 Elite处理器,AI处理速度提升40%,CPU性能增强37%,图形渲染提升30%。配备40%更大蒸汽腔散热系统,有效防止过热。ProScaler AI图像缩放引擎实时优化视觉效果,游戏模式可定制化设置避免干扰。Audio Eraser功能清理背景噪音,AI电池优化技术延长游戏时间,为移动游戏玩家提供专业级体验。

Iceberg时代来临:StarTree成为采用热门表格式的最新厂商

Iceberg时代来临:StarTree成为采用热门表格式的最新厂商

开源Iceberg正成为数据湖表格式的通用标准,StarTree是最新将其作为实时后端的供应商。StarTree Cloud基于Apache Pinot构建,现可作为Iceberg之上的分析和服务层。该公司声称Iceberg支持能将其从被动存储格式转变为实时后端,为面向客户的应用和AI代理提供高并发服务。与其他查询引擎不同,StarTree专为低延迟、高并发访问而构建,可直接在原生Iceberg表上提供实时查询加速。

DDN推出Infinia存储系统,声称可大幅提升AI推理速度并降低成本

DDN推出Infinia存储系统,声称可大幅提升AI推理速度并降低成本

DDN发布性能基准测试显示,其Infinia存储系统通过优化中间KV缓存处理,能够将AI处理速度提升27倍。该系统专为英伟达H100和GB200等GPU设计,提供亚毫秒级延迟,支持每秒超10万次AI调用。在112000令牌任务测试中,传统重计算方法需57秒,而Infinia仅需2.1秒。DDN称该技术可削减输入令牌成本75%,为运行1000个并发AI推理管道的企业每日节省8万美元GPU成本。

铠侠UFS 4.1闪存承诺提升AI应用性能表现

铠侠UFS 4.1闪存承诺提升AI应用性能表现

铠侠正在测试最新的UFS v4.1嵌入式闪存芯片,专为智能手机和平板电脑设计,可提供更快的下载速度和更流畅的设备端AI应用性能。该芯片采用218层TLC 3D NAND技术,提供256GB、512GB和1TB容量选择。相比v4.0产品,随机写入性能提升约30%,随机读取性能提升35-45%,同时功耗效率改善15-20%。新标准还增加了主机发起碎片整理、增强异常处理等功能特性。

AMD在AI领域持续发力,仍有大量工作要做

AMD在AI领域持续发力,仍有大量工作要做

在AMD AI推进大会上,CEO苏姿丰展示了公司在AI硬件和软件方面的显著进展。新一代MI350系列GPU性能提升4倍,高端MI355X在内存、计算吞吐量和性价比方面均优于英伟达B200。公司计划2026年推出Helios机架级平台,ROCm 7推理性能提升3.5倍。尽管在GPU训练、TCO优势等方面表现良好,但在NIMs微服务、企业级GPU市场渗透等领域仍需加强,以进一步缩小与英伟达的差距。

Voltron Data力推AMD,为GPU加速SQL注入新动力

Voltron Data力推AMD,为GPU加速SQL注入新动力

Voltron Data宣布其加速SQL引擎Theseus将支持AMD Instinct GPU,这标志着英伟达CUDA护城河正在变浅。Theseus使用GPU加速SQL查询,能高速处理大量数据。随着企业寻求利用AI,快速处理大量数据变得越来越重要。AMD投入大量资源构建开源软件栈以缩小与英伟达的差距,最新版本基于AMD的hipDF库。早期基准测试显示AMD平台性能表现良好,生产支持预计今年底推出。

OpenAI 表示 GPT-4.1 模型现已在 ChatGPT 中上线

OpenAI 表示 GPT-4.1 模型现已在 ChatGPT 中上线

OpenAI 按用户需求在 ChatGPT 推出全新 GPT-4.1 及其 mini 与 nano 版本,专注提升编程、指令理解与长文本处理能力,免费及付费用户均可体验。

MediaTek 推出高端新品:Kompanio Ultra 和 Dimensity 9400+

MediaTek 推出高端新品:Kompanio Ultra 和 Dimensity 9400+

联发科最近发布了新款高端芯片 Kompanio Ultra 和天玑 9400+,进一步完善其产品线。Kompanio Ultra 为 Chromebook 带来全新性能水平,天玑 9400+ 则在天玑 9400 基础上小幅提升。这些产品强化了联发科在智能手机和 Chromebook 市场的竞争力,同时展示了公司在 AI 和高性能计算领域的持续发力。

中国燕融将 KVCache 集成到文件系统以加速 AI 推理

中国燕融将 KVCache 集成到文件系统以加速 AI 推理

中国存储软件供应商燕融科技将KVCache整合到其文件系统中,显著提升了KV缓存命中率和长上下文处理能力,降低了AI推理成本。通过在GPU服务器集群中部署分布式内存层存储元数据,燕融的YRCloudFile系统实现了高并发查询吞吐量,为推理工作负载带来了明显的性能提升。测试结果显示,该技术在首个令牌生成时间和并发查询支持方面均有数倍的改进。

Google 推出第七代 Ironwood TPU 芯片,借助 AI 进行性能对比

Google 推出第七代 Ironwood TPU 芯片,借助 AI 进行性能对比

Google宣布第七代张量处理单元(TPU)芯片即将向云客户开放租用,可提供256或9216芯片的集群。新一代TPU在内存带宽、算力和能效方面都有显著提升,专为大语言模型推理设计,每个芯片具有192GB高带宽内存。Google称9216芯片集群的AI算力可达42.5 exaFLOPS,远超现有超级计算机。

联发科发布新芯片,使 Chromebook 具备 AI 助手运行能力

联发科发布新芯片,使 Chromebook 具备 AI 助手运行能力

MediaTek 推出新一代 Kompanio Ultra 芯片,专为 Chromebook 设计。这款芯片不仅提升了性能和电池续航,更重要的是增强了生成式 AI 能力,使得价格亲民的 ChromeOS 笔记本电脑也能运行先进的 AI 助手。MediaTek 与 Google 密切合作,确保新芯片能充分发挥 Chromebook Plus 设备的下一代 AI 功能。

Nvidia 新推出的工具让本地 AI 计算变得轻而易举

Nvidia 新推出的工具让本地 AI 计算变得轻而易举

Nvidia 推出全新 AI 工具套件 NIM 微服务,让拥有 RTX 显卡的用户能够在本地轻松运行 AI 模型。这套工具支持文本、图像和代码生成等多种功能,不仅可以节省长期使用成本,还能确保数据安全性。该举措体现了 AI 本地化运算的发展趋势,也展示了 Nvidia 在 AI 领域的领导地位。

AMD 发布第五代 Epyc 嵌入式处理器,面向网络、存储和工业边缘领域

AMD 发布第五代 Epyc 嵌入式处理器,面向网络、存储和工业边缘领域

AMD 发布第五代 Epyc 嵌入式处理器,采用 Zen 5 架构,专为网络、存储和工业边缘计算优化。新处理器在性能、能效和嵌入式特性方面均有提升,可支持高达 192 核心,内存容量达 6TB,并提供 7 年产品制造支持。多家行业合作伙伴已开始采用这一新产品。