ZD至顶网服务器频道 10月09日 编译:坊间一直猜测高通公司会从其老本行(移动领域)进入到云计算领域,高通日前宣布正将一个基于新的系统芯片开发平台送交顶级服务器制造商试用,从此正式进入服务器市场。
此消息是截止目前对ARM进入服务器市场之举最好的证明,众所周知,ARM进入服务器市场的过程颇为缓慢和艰难,高通与赛灵思、Mellanox公司结下的合作伙伴关系至关重要,原因是高通的大数据中心客户都在探索利用FPGA作为协处理器的可能性,运营商也都在采用诸如网络功能虚拟化(NFV)的新型通讯架构。
高通公司总裁Derek Aberle在新闻发布会上表示,高通拥有“悠久的开发定制IP高性能微架构的历史。我们认为我们可以利用这一专长进军世界一流的数据中心。考虑到我们在移动市场的领先地位,这一点对在数据中心领域里具有竞争力的解决方案是非常重要的。”
高通只提供了新SoC的粗略说明,并无有关路线图的细节。高通公布的一款前期产品性质的SoC含24个用到FinFET工艺的定制ARMv8内核。该SoC还包括一个存储器控制器、存储、PCI Express和其他定制IP。高通的目标是云应用,如基础设施和平台即服务、机器学习、大数据及NFV。
高通的开发SoC(上图)的内核数目比完整产品芯片的内核少一些,芯片布线也略有不同,这表明高通可能对创建自定义系统内核持开放态度。(资料来源:高通)
高通表示,到2018年时,云计算将占服务器市场的40%,与2013年比增长110%;到2020年时,云计算有机会达到150亿美元的规模。尽管美国仍在服务器需求方面领先,但中国正在迅速赶上来,以满足其“未被足够渗透的”市场。
高通的数据中心事业部高级副总裁Anand Chandrasekher表示,“服务器行业正在发生各种我从未见过的变化,其根本原因是云计算。云计算在不断增长,是一个全球性的现象,在所有的工作负载领域都是这样。服务器市场业务正在经历一次海啸,是新玩家进入该市场的好时机。”
赛灵思公司总裁Moshe Gavrielov表示,FPGA和高通新服务器CPU之间的密切整合,在每瓦特性能上可提供10倍到50倍的增益。云计算巨头微软和百度曾在去年的Hot Chips(热门芯片)活动上 公开描述过他们在FPGA作为协处理器方面的工作,8月时就已经开始做了。
Gavrielov在说到时下数据中心巨头时表示,“这些公司与传统玩家非常不同,因为他们控制着整个流程。他们也关注低功耗的事情,究其原因,看一下数据中心就知道,其最大的限制是能将多少功率弄到大楼里。如果能拿出一个低功耗解决方案,会非常有吸引力。”
Mellanox公司总裁兼首席执行官Eyal Waldman表示,高通能将那些低功耗数据中心以10-100 GB/秒的以太网连接在一起。
穆尔洞察与策略(Moor Insights & Strategy)公司的分析师Gina Longoria告诉记者,高通作出的结盟是正确的。Mellanox公司是个数据中心网络顶级玩家,与高通的竞争对手Broadcomm公司不差上下。赛灵思公司则在设法应付已提到议事日程上的英特尔与Altera公司的合并,合并旨在提供服务器处理器和FPGA的集成。
尽管诸如Applied Micro和Calvium的竞争对手已经开始发售基于ARM的服务器系统芯片,高通仍希望通过与赛灵思和Mellanox的结盟能够脱颖而出,或许其雄厚的财力可以助一臂之力,高通公司承诺会在服务器空间作“数年的重大投资”。
Longoria警告说,高通、赛灵思和Mellanox公司的投资不能停留在芯片的层次。初入市场者低估大部分相关生态圈,他们必须为公司提供投资上的较好的回报,才能为移植英特尔x86软件的内部成本提供足够的理由。
Longoria表示,“ARM的几步棋都不太成功,而现在一个大芯片商又出来了,他们拥有投资潜力。这是我们在等的事情,要么高通成事,要么就谁也成不了事。”
高通也有可能在服务器空间利用旗下的GPU产品,但Chandrasekher拒绝对公司的路线图作进一步的评论。
好文章,需要你的鼓励
TAE Technologies在最新一轮投资中获1.5亿美元,累计融资约18亿美元。公司利用 AI 技术优化融合反应堆设计,目标于 2030 年代商业化发电,谷歌等巨头均参与合作。
这项来自KU Leuven、中科大和上海Memory Tensor公司的研究探索了如何利用拼图游戏训练多模态大型语言模型的视觉推理能力。研究发现,现有模型在未经训练时表现近似随机猜测,但通过强化学习能达到近乎完美的准确率并泛化到更复杂的拼图配置。有趣的是,模型能否有效学习与是否包含明确推理过程无关,且复杂推理模式是预先存在而非突然出现的。此外,研究证明强化学习在泛化能力上优于监督微调,挑战了传统的模型训练范式。这些发现不仅揭示了AI视觉理解的机制,还为未来多模态模型研发提供了重要参考。
Nvidia 正在全球数据中心推广 AI 芯片,其最新 Blackwell 架构在 MLPerf 基准测试中获得最高性能,大幅加速下一代 AI 应用的训练与部署。
这项研究提出了LoHoVLA,一种用于长时序实体任务的统一视觉-语言-动作模型,融合了高层任务规划和低层动作控制功能。与传统方法不同,它利用单一预训练视觉语言模型同时生成语言子任务和机器人动作,并采用分层闭环控制机制增强鲁棒性。研究团队构建了包含20个长时序任务的LoHoSet数据集,实验结果显示LoHoVLA在Ravens模拟器中显著优于现有方法,展现出统一架构在实现可泛化实体智能方面的潜力。