ZD至顶网服务器频道 08月27日编译:一家来自中国的初创企业在今年的Hot Chips大会上亮出了迄今为止最震撼人心的ARM服务器处理器方案。顺带一提,甲骨文方面则借此机会公布了其首款集成有Infiniband的Sparc处理器。
这家名为飞腾信息技术有限公司的年轻厂商诞生于2012年,其宣称自家处理器采用64个自定义ARMv8计算核心,采用28纳米制程工艺并拥有最高2 GHz主频。由于每运算周期可处理高达四条指令,这意味着其最大运算能力将达到每秒5120亿次浮点运算。
这款代号为“火星”的设计方案超越了当前各类高端ARM服务器芯片,包括目前正处于样品展示阶段的Cavium 48核心ThunderX处理器以及另一款仍处于开发当中的博通方案。今年2月,EZchip公司曾表示其将发布一款采用28纳米制程的100核心ARMv8处理器,但其正式推出时间定为2017年。
这款“火星”处理器的设计方案尚未公开,但齐聚一堂的分析师以及微处理器设计师们已经开始将注意力转移到其身上,—部分原因是飞腾公司在此前可以说是寂寂无名。
与IBM的Power 8处理器一样,火星也采用了外部三级缓存以及内存控制器设计
Insight64公司(位于加利福尼亚州萨拉托加)负责人Nathan Brookwood赞叹道,“这是目前为止公布的最震撼人心的64位ARM芯片,性能非常强劲,而且绝对是本次大会上最大的惊喜。”
AMD公司研究员兼会议主持者Sam Naffziger则将“火星”形容为一套“拥有出色缓存层级与良好带宽匹配”的上佳设计方案。
Hot Chips大会的组织者们亦对飞腾公司发来的论文感到惊讶,毕竟这是一家他们闻所未闻的年轻企业。在此之前,Hot Cips大会还曾经收到过几篇由中国政府及高校组建的龙芯处理器构建团队发来的论文。
Hot Chips大会的组织者之一Ralph Wittig表示,“我很惊讶今年龙芯团队没有拿出什么新的成果,但我们从飞腾方面收到了相关论文,并听说他们这家初创企业有信心在ARM领域大展身手,他们的外部内存模块跟IBM的Power 8设计方案比较相似,作为项目委员会,飞腾的成果给我们留下了深刻印象。”
更具神秘色彩的是,飞腾公司的一位工程经理没能在大会期间顺利拿到赴美签证。为了解决问题,他决定在位于天津及广州的公司办公室里通过手机展示幻灯片内容。
一位熟悉飞腾公司的与会者表示,该团队并非脱胎于龙芯项目组。该公司的天津分部还由于此前发生的重大爆炸事故而一片狼藉。
在对SpecCPU 2006基准测试进行模拟运行时,“火星”处理器作为64核心芯片分别在整数运算与浮点运算项目中拿到了672分与585分。不过观察人士指出,这一成绩换算至单一核心性能就显得有些疲软了。
这款芯片被整体划分为多个八核心层,其中每四个计算核心共享4 MB缓存容量。八块外部芯片总计提供129 MB三级缓存及16条DDR3-1600通道。
飞腾的自定义64位ARM计算核心拥有192个物理寄存器。其重排序缓冲器能够容纳最高160条指令,而整体通道中的指令容纳数量则在210条左右。
这款芯片按顺序分发并清理指令,并以无序方式进行指令执行。其采用一套主动式分支预测机制并拥有多线程能力。
“火星”支持MPI与Open MP接口以实现多处理系统。另一款尚处于开发阶段的处理器代号为“地球”,其将拥有业界最低之成本与功耗水平,且主要面向目前的各类大型数据中心。
“我敢肯定,火星将成为世界上第一款64核心的ARMv8处理器,”飞腾公司研究员Charles Zhang通过电话向Hot Chips大会的各位与会者们宣称。“这是个很好的开端……在接下来的几年中,我们将开发出更为强大的CPU方案。”
火星处理器的最大弊端之一在于其庞大的体积,分析师们指出。想利用这样巨大的芯片实现运营收益实在不是易事。
甲骨文公司在本届Hot Chips大会上公布了一款新的服务器处理器,这是其首款集成了Infiniband的芯片产品。这款代号为Sonoma的芯片是新家族中的首位成员,同时能够为甲骨文数据库及其它软件方案提供加速功能。
Sonoma是一款采用20纳米制程工艺的芯片,其中包含八个M7级Sparc计算核心,每核心最高可支持八线程。它封装有两个DDR4内存控制器,单插槽内存容量上限为1 TB,且峰值内存传输带宽为每秒77 GB。
这款芯片还包含一个PCI Express Gen 3控制器,外加四条用于多处理器协同工作的每秒16 Gb传输链路。
甲骨文Sonoma芯片上近五分之一面积用于容纳Infiniband
集成Inifniband占用了这款芯片占五分之一的表面积。其采用两连56G Infiniband链路且支持虚拟化功能,拥有32个虚拟独立Infiniband适配器。
甲骨文公司将Infiniband内置于芯片当中,从而最大程度优化其使用效果并保障自有知识产权,一位设计团队成员解释称。这款芯片还拥有其它几种潜在用途,甲骨文方面能够借此利用Infiniband让一系列现有系统实现集群化、存储以及其它应用能力。
Sonoma芯片当中包含四个数据库加速块,且针对甲骨文软件产品作出了优化。该芯片还提供一个小型元数据块,可作为缓冲区以避免内存溢出并防止HeartBleed等恶意攻击的出现。
“这是一款令人印象深刻的芯片,而且也为芯片集成Infiniband吹响了前进的号角,”分析师Brookwood表示,“甲骨文公司已经在利用Infiniband访问存储资源方面表现出了远超其它同业企业的积极态度,相比之下各竞争对手仍在利用独立芯片实现Infiniband功能。”
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。