这款处理器是芯片巨头最新、也最伟大的产品
华为跻身Skylake市场
随着供应商接连不断地推出Broadwell到Skylake的产品更新消息,高性能计算服务器的升级态势也日渐蓬勃,而华为则在最近提供了其有关此方向的更新内容。
此前,华为公司在SC17上已经展示了数款采用了Skylake的服务器,具体包括于上月公布的2488机架安装产品与新款CH242 V5服务器,且这两款产品实际上都采用了相同的四插槽至强SP系统。
上面是CH242 V5服务器,下面则是华为2488
两款产品最多可支持4块至强SP处理器,具有高达6 TB的内存,此外还包括全NVMe SSD、每秒速度可达100 Gbit的InfiniBand以及Omni-Path连接器等。另外,上述两款产品均可进行内存优化或计算优化配置。
CH242 V5由CH242 V3升级而来,是一款全宽四插槽的刀片式服务器。该款产品最多可支持28个核心的至强SP、48个DDR4 DIMM插槽以及8个M.2 SSD SATA的存储器,并且其所支持的存储设备有两种搭配方式可供选择,具体为4 x 2.5英寸的SAS或SATA SSDS外加4块NVMe SSD。
点击这里以获取更多详细信息。在SC17上与这两款产品一同亮相的有:华为的Atlas云硬件平台、G系列异构服务器以及混合液体冷却技术。此外,华为正在参加Linux基金会的开源高性能计算项目,致力于创建一套高性能计算开源代码框架,并将其应用于该公司的软件与硬件。
在华为公司的Skylake FusionServer系列产品中,该公司已拥有IU单插槽1288H V5、2U双插槽2288H V5与CH121 V5以及半宽双插槽XH321 V5。其中,CH242 V5将Skylake的覆盖范围实现了扩展,使之成为了一款四插槽刀片式服务器。
分析、AI以及机器学习应用程序为高性能计算服务器提供了巨大的潜在应用实例,而华为自然也希望能够在这个市场里分一杯羹。
好文章,需要你的鼓励
Meta 悄悄放弃了 Llama?一个叫 Muse Spark 的新 AI 横空出世,背后藏着一场惊天大翻身。
新加坡管理大学团队提出了AI编程的并行执行新范式,通过让代码边生成边执行,成功将执行时间的83%-100%隐藏在生成过程中,实现最高55%的端到端延迟减少。该技术不仅提升了响应速度,还通过早期错误中断机制显著改善了代码修复成功率,为AI辅助编程工具的优化提供了新思路。
AMD AI部门高级总监Stella Laurenzo公开批评Anthropic旗下Claude Code存在推理能力退化问题。她通过分析近7000个会话文件中的1.7万余个思维块和23万余次工具调用,发现该工具在处理复杂工程任务时存在"不读代码直接修改"等浅层推理行为,导致团队暂停将其用于硬件调试和内核级开发。分析师指出,这本质上是算力与成本约束问题,并预测行业将普遍转向分层计费模式。
雪花AI研究院通过对三个不同AI模型进行150次软件调试任务测试,发现了AI助手行为一致性的双刃剑效应:Claude最稳定准确但速度慢,GPT-5快速但一致性差,Llama表现最不稳定。关键发现是一致性会放大结果——既能放大正确做法也能放大错误,71%的Claude失败源于一致的错误理解。研究揭示解读准确性比执行一致性更重要。