ZD至顶网服务器频道 10月09日 编译:坊间一直猜测高通公司会从其老本行(移动领域)进入到云计算领域,高通日前宣布正将一个基于新的系统芯片开发平台送交顶级服务器制造商试用,从此正式进入服务器市场。
此消息是截止目前对ARM进入服务器市场之举最好的证明,众所周知,ARM进入服务器市场的过程颇为缓慢和艰难,高通与赛灵思、Mellanox公司结下的合作伙伴关系至关重要,原因是高通的大数据中心客户都在探索利用FPGA作为协处理器的可能性,运营商也都在采用诸如网络功能虚拟化(NFV)的新型通讯架构。
高通公司总裁Derek Aberle在新闻发布会上表示,高通拥有“悠久的开发定制IP高性能微架构的历史。我们认为我们可以利用这一专长进军世界一流的数据中心。考虑到我们在移动市场的领先地位,这一点对在数据中心领域里具有竞争力的解决方案是非常重要的。”
高通只提供了新SoC的粗略说明,并无有关路线图的细节。高通公布的一款前期产品性质的SoC含24个用到FinFET工艺的定制ARMv8内核。该SoC还包括一个存储器控制器、存储、PCI Express和其他定制IP。高通的目标是云应用,如基础设施和平台即服务、机器学习、大数据及NFV。
高通的开发SoC(上图)的内核数目比完整产品芯片的内核少一些,芯片布线也略有不同,这表明高通可能对创建自定义系统内核持开放态度。(资料来源:高通)
高通表示,到2018年时,云计算将占服务器市场的40%,与2013年比增长110%;到2020年时,云计算有机会达到150亿美元的规模。尽管美国仍在服务器需求方面领先,但中国正在迅速赶上来,以满足其“未被足够渗透的”市场。
高通的数据中心事业部高级副总裁Anand Chandrasekher表示,“服务器行业正在发生各种我从未见过的变化,其根本原因是云计算。云计算在不断增长,是一个全球性的现象,在所有的工作负载领域都是这样。服务器市场业务正在经历一次海啸,是新玩家进入该市场的好时机。”
赛灵思公司总裁Moshe Gavrielov表示,FPGA和高通新服务器CPU之间的密切整合,在每瓦特性能上可提供10倍到50倍的增益。云计算巨头微软和百度曾在去年的Hot Chips(热门芯片)活动上 公开描述过他们在FPGA作为协处理器方面的工作,8月时就已经开始做了。
Gavrielov在说到时下数据中心巨头时表示,“这些公司与传统玩家非常不同,因为他们控制着整个流程。他们也关注低功耗的事情,究其原因,看一下数据中心就知道,其最大的限制是能将多少功率弄到大楼里。如果能拿出一个低功耗解决方案,会非常有吸引力。”
Mellanox公司总裁兼首席执行官Eyal Waldman表示,高通能将那些低功耗数据中心以10-100 GB/秒的以太网连接在一起。
穆尔洞察与策略(Moor Insights & Strategy)公司的分析师Gina Longoria告诉记者,高通作出的结盟是正确的。Mellanox公司是个数据中心网络顶级玩家,与高通的竞争对手Broadcomm公司不差上下。赛灵思公司则在设法应付已提到议事日程上的英特尔与Altera公司的合并,合并旨在提供服务器处理器和FPGA的集成。
尽管诸如Applied Micro和Calvium的竞争对手已经开始发售基于ARM的服务器系统芯片,高通仍希望通过与赛灵思和Mellanox的结盟能够脱颖而出,或许其雄厚的财力可以助一臂之力,高通公司承诺会在服务器空间作“数年的重大投资”。
Longoria警告说,高通、赛灵思和Mellanox公司的投资不能停留在芯片的层次。初入市场者低估大部分相关生态圈,他们必须为公司提供投资上的较好的回报,才能为移植英特尔x86软件的内部成本提供足够的理由。
Longoria表示,“ARM的几步棋都不太成功,而现在一个大芯片商又出来了,他们拥有投资潜力。这是我们在等的事情,要么高通成事,要么就谁也成不了事。”
高通也有可能在服务器空间利用旗下的GPU产品,但Chandrasekher拒绝对公司的路线图作进一步的评论。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。