ZD至顶网服务器频道 10月22日 编译:近日芯片设计厂商ARM发布了最新的业绩结果,从数据来看这一季度又是一个增长的季度,营收同比成长17%,达3.755亿美元(23.8448亿人民币),而第3季度的税前利润同比增长27%,达12.5814亿人民币。
总部设在英国剑桥的ARM今年似乎会创纪录,之前第2季度获得了大丰收,7月发布的收入和利润分别实现同比22%和32%的增长。
但这却也未能阻止公司的股价受苹果公司(此家公司的命运与ARM的命运紧密相连)拖累而出现“令人失望”的结果。因此,ARM似乎急于想摆脱对智能手机市场的依赖。
ARM公司已经排出新的芯片阵容,昨天公布了旗下的Mali-470处理器,目标是“可携带”和“物联网”(IoT)市场。
ARM还加强了提供物联网解决方案的能力,今年上半年收购了以色列的物联网公司的Sansa,上个月又签订协议加入IBM的物联网基金会。
ARM首席高管Simon Segars称,ARM公司设计的芯片可用于“广泛范畴内的设备”,包括智能手机、企业设备(如基站和服务器)以及消费类电子产品(如数字电视)。
他表示,“ARM技术在产品方面和市场上的部署日益多元化,从构成物联网的、无处不在的传感器到高能效智能手机到高性能服务器等等。”
服务器基准检验ScaleMark首次亮相于 ARM活动
据美国加州圣何塞消息,新的数据中心服务器基准检验ScaleMark将在下个月召开的ARM技术大会上亮相,ScaleMark的目标是利用工作负载提供独立于处理器的性能指标。
ARM的这一步与其打入服务器市场的计划有关。ARM推出打入服务器市场的计划后引起关注,多家公司开始已经有设计产品发货。高通上个月宣布了自己的计划,一家中国启动公司8月份提出了积极的计划,Broadcom预计会在该次的ARM会上推出备受期待的SoC。
嵌入式微处理器基准协会(EEMBC)主席Markus Levy 表示,“传统的基准检验不利于横向扩展的服务器。“ScaleMark是EEMBC截至目前为止在系统测试层次上走出的最大一步。
Lecy表示,诸如Spec一类的基准检测的重点放在缓存性能上,没有考虑硬盘运作的影响,而硬盘运作是影响数据中心性能的一个重要因素。而诸如Cloud Suite 和Google Perf Kit的系统层次测试对很多应用程序有效,但不能提供可重复的结果。
EEMBC表示,当前的基准检测在有些方面给出前后不一的的结果,ScaleMark现已进入Beta测试阶段,将于11月推出,开始时只含一个Memcached测试和一个用于流媒体的测试。这两个测试都是基于有章可循的实际数据中心应用程序的配置,且可以进行自动安装。Memcached应用程序用到的数值源于Facebook的应用个案,流媒体应用程序是自家版本,其作用是复制诸如Netflix或YouTube的内部代码。
ARM、Cavium、Imagination科技公司和英特尔一年前开始打造ScaleMark,Levy表示,“我们正在讨论下一代的事情,但还没有着落。”
对于从请求到访问延迟不超过10毫秒的系统,ScaleMark会给出数据吞吐量。因此,假如技术人员想在基于x86的服务器和基于ARM的服务器之间做比较的话,ScaleMark也说不出个究竟来。
Levy称,“必须考虑性能数字以外的东西,要评估系统的价格和功耗”才能有一个完整的评估。他表示,“大家作比较时必须苹果比苹果,举个例子,不可以拿10,000美元的英特尔系统和1,000美元的Cavium系统相比。”
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
延世大学研究团队通过分析AI推理过程中的信息密度模式,发现成功的AI推理遵循特定规律:局部信息分布平稳但全局可以不均匀。这一发现颠覆了传统的均匀信息密度假说在AI领域的应用,为构建更可靠的AI推理系统提供了新思路,在数学竞赛等高难度任务中显著提升了AI的推理准确率。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
蒙特利尔大学团队发现让AI"分段思考"的革命性方法Delethink,通过模仿人类推理模式将长篇思考分解为固定长度块,仅保留关键信息摘要。1.5B小模型击败传统大模型,训练成本降至四分之一,计算复杂度从平方级降为线性级,能处理十万词汇超长推理,为高效AI推理开辟新道路。