ZDNet至顶网服务器频道 09月23日 新闻消息(文/张广彬):几乎每一代英特尔CPU的推出,都可以套上“更高、更快、更强”的形容词,可至少对至强E5 v3而言,“更快”有着更多的含义,而伴随着“更强”,或许还要加上“更广”二字。
虽然采用Haswell微架构的消费级CPU推出已有一段时间,但如果把目光放在至强E5家族内部,E5 v3和v2正式推出的间隔只有一年,而v2和初代E5之间则相距18个月。从v2到v3,CPU最大内核数的增幅都是50%,不过,核数越多,保持同样的增幅(且间隔更短)就愈发不易,这一点ZDNet企业解决方案中心高级工程师盘骏在《Intel Haswell-EP处理器评测》文章中进行了详细的剖析,非常值得一读。
相对而言,服务器OEM厂商的时间要充裕些,因为至强E5 v2并没有更换硬件平台,E5 v3的Grantley平台距初代E5的Romley平台之间有两年半的时间,且OEM很早就开始了测试工作。所以,众多厂商基于至强E5 v3的新一代服务器产品也很值得关注。
至强E5集成了PCI Express 3.0并提供Intel的DPDK技术,E5 v3没有这么大的革新,却可以充分享用两年多来周边技术发展成熟的成果。网络方面,虽然板载网卡仍然以千兆(GbE)为主,但是万兆(10GbE)选项已经占据更加重要的地位,40GbE也更为常见。在计算能力和内存带宽持续提升的情况下,网络不能成为瓶颈,特别是在分布式计算大行其道的今天。
改变更大的是存储部分。闪存市场的快速发展,特别是PCI Express闪存产品的成熟,使得SFF-8639和NVMe的组合出现在几乎所有主流服务器产品的可选配置中。
RAID技术的重要性也明显下降,新一代服务器的RAID卡普遍增加了“直通”(pass-through)的选项,一方面是传统的RAID算法不适于固态盘(SSD),另一方面是Hadoop等分布式计算应用不需要服务器RAID。不论SSD还是硬盘,采用直通模式都意味着原本由RAID卡负责的冗余处理等工作,要交给上层软件来执行,这对服务器CPU的计算能力提出了更高的要求,为至强E5 v3提供了广阔的施展空间。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。