ZD至顶网服务器频道 10月16日 编译:英特尔已将自身的债务水平从80亿美元(52亿英镑)提升至200亿美元(160亿英镑),此举就在该公司准备以167亿美元(104亿英镑)收购数据中心芯片制造商Altera之前。
Chipzilla在第三季度财报电话会议上承认该公司承担着巨大的债务水平,在过去三个月中,它产生了145亿美元(94亿英镑)的收入,净收入为31亿美元(20亿英镑),和去年同期相比利润减少了6%。
首席财务官Stacy Smith表示,“我们的净现金平衡、总现金减去债务以及我们其他的长期投资大约接近51亿美元。在未来两个季度,我们预计将完成对Altera的收购。”
今年六月,英特尔同Altera签署了总额为167亿美元(104亿英镑)的收购合约,企图进入目前热火朝天的物联网炒作市场,提高数据中心业务部门。希望以此行动抵消不断萎缩的个人电脑市场带来的不利影响。
虽然英特尔的数据中心集团的收入增长到了41亿美元,同比增长12%,环比增长8%,但是市场整体预测已经被降级。
Smith表示,“我们现在希望数据中心业务能够以较低的两位数增长,之前的预测大约是15%左右。”
好文章,需要你的鼓励
这篇研究介绍了KVzip,一种创新的查询无关KV缓存压缩方法,通过上下文重建机制为大型语言模型提供高效存储解决方案。该技术能将KV缓存大小减少394倍,同时提高解码速度约2倍,在各种任务上性能几乎不受影响。不同于传统查询相关的压缩方法,KVzip创建可在多种查询场景下重用的通用压缩缓存,特别适合个性化AI助手和企业信息检索系统。研究在LLaMA3.1-8B、Qwen2.5-14B和Gemma3-12B等多种模型上进行了验证,处理长度高达17万词元的文本,并能与KV缓存量化等其他优化技术无缝集成。
腾讯与上海交通大学联合推出的DeepTheorem研究突破了大型语言模型在数学定理证明领域的限制。该项目创建了包含12.1万个IMO级别非形式化定理的大规模数据集,开发了专门的RL-Zero强化学习策略,并设计了全面的评估框架。研究表明,通过使用自然语言而非传统形式化系统,即使是7B参数的模型也能在复杂定理证明上取得显著成果,超越许多更大的专业模型。这一成果为AI数学推理开辟了新途径,使语言模型能够像人类数学家一样思考和证明。