ZD至顶网服务器频道 10月22日 编译:近日芯片设计厂商ARM发布了最新的业绩结果,从数据来看这一季度又是一个增长的季度,营收同比成长17%,达3.755亿美元(23.8448亿人民币),而第3季度的税前利润同比增长27%,达12.5814亿人民币。
总部设在英国剑桥的ARM今年似乎会创纪录,之前第2季度获得了大丰收,7月发布的收入和利润分别实现同比22%和32%的增长。
但这却也未能阻止公司的股价受苹果公司(此家公司的命运与ARM的命运紧密相连)拖累而出现“令人失望”的结果。因此,ARM似乎急于想摆脱对智能手机市场的依赖。
ARM公司已经排出新的芯片阵容,昨天公布了旗下的Mali-470处理器,目标是“可携带”和“物联网”(IoT)市场。
ARM还加强了提供物联网解决方案的能力,今年上半年收购了以色列的物联网公司的Sansa,上个月又签订协议加入IBM的物联网基金会。
ARM首席高管Simon Segars称,ARM公司设计的芯片可用于“广泛范畴内的设备”,包括智能手机、企业设备(如基站和服务器)以及消费类电子产品(如数字电视)。
他表示,“ARM技术在产品方面和市场上的部署日益多元化,从构成物联网的、无处不在的传感器到高能效智能手机到高性能服务器等等。”
服务器基准检验ScaleMark首次亮相于 ARM活动
据美国加州圣何塞消息,新的数据中心服务器基准检验ScaleMark将在下个月召开的ARM技术大会上亮相,ScaleMark的目标是利用工作负载提供独立于处理器的性能指标。
ARM的这一步与其打入服务器市场的计划有关。ARM推出打入服务器市场的计划后引起关注,多家公司开始已经有设计产品发货。高通上个月宣布了自己的计划,一家中国启动公司8月份提出了积极的计划,Broadcom预计会在该次的ARM会上推出备受期待的SoC。
嵌入式微处理器基准协会(EEMBC)主席Markus Levy 表示,“传统的基准检验不利于横向扩展的服务器。“ScaleMark是EEMBC截至目前为止在系统测试层次上走出的最大一步。
Lecy表示,诸如Spec一类的基准检测的重点放在缓存性能上,没有考虑硬盘运作的影响,而硬盘运作是影响数据中心性能的一个重要因素。而诸如Cloud Suite 和Google Perf Kit的系统层次测试对很多应用程序有效,但不能提供可重复的结果。
EEMBC表示,当前的基准检测在有些方面给出前后不一的的结果,ScaleMark现已进入Beta测试阶段,将于11月推出,开始时只含一个Memcached测试和一个用于流媒体的测试。这两个测试都是基于有章可循的实际数据中心应用程序的配置,且可以进行自动安装。Memcached应用程序用到的数值源于Facebook的应用个案,流媒体应用程序是自家版本,其作用是复制诸如Netflix或YouTube的内部代码。
ARM、Cavium、Imagination科技公司和英特尔一年前开始打造ScaleMark,Levy表示,“我们正在讨论下一代的事情,但还没有着落。”
对于从请求到访问延迟不超过10毫秒的系统,ScaleMark会给出数据吞吐量。因此,假如技术人员想在基于x86的服务器和基于ARM的服务器之间做比较的话,ScaleMark也说不出个究竟来。
Levy称,“必须考虑性能数字以外的东西,要评估系统的价格和功耗”才能有一个完整的评估。他表示,“大家作比较时必须苹果比苹果,举个例子,不可以拿10,000美元的英特尔系统和1,000美元的Cavium系统相比。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。