芯片制造商英特尔今天发布了第三季度财报,股价延长交易时段中上涨了近8%。与此同时,英特尔给出了乐观的预测,利润和销售额均超出预期,并提及了代工业务吸引的新客户,以及透露在AI领域越来越受到关注。
第三季度英特尔在不计入股票补偿等特定成本的收益为每股41美分,超出了华尔街预期的每股22美分,收入较去年同期下降8%至141.6亿美金,但这仍高于分析师普遍预期的135.3亿美金。
该季度英特尔的净利润为2.97亿美金,低于去年同期的10.2亿美金,毛利率为45.8%,与去年同期持平。
在指引方面,英特尔预计第四季度收入在146亿美金至156亿美金之间,远远超出分析师设定的144亿美金目标。此外,英特尔预测每股收益为44美分,而预期为每股33美分。
英特尔公司首席执行官Pat Gelsinger(如图)在电话会议上表示,尽管过去几个季度数据中心服务器市场的库存不断消耗,CPU和加速卡的支出份额发生了变化,但市场现在似乎正在趋于正常化。他提到了对英特尔及其至强CPU在快速增长的AI市场中的地位充满信心。
他表示:“训练这些大型模型很有趣,但我们认为,这些模型的部署和推理用途才是未来真正令人惊叹的。而且……其中一些将在加速卡上运行,但很大一部分是运行在至强上的。”
近年来,英特尔一直在推动自己新兴的代工业务,这部分业务主要是为其他公司生产计算机芯片,Gelsinger因此也向分析师介绍了这项业务所取得的进展。他表示,目前已经有三个大客户承诺使用英特尔的18A制造工艺技术,此前英特尔只公布了一家客户,而这次他没有透露这些客户的名字。
他表示:“该季度我们看到的另一件事有点出乎意料,那就是对AI和英特尔先进封装技术的兴趣大幅飙升。”
他表示,英特尔仍有望在2025年赶上主要竞争对手台积电。英特尔制定了一项名为“四年五个节点”的计划,旨在改进芯片制造工艺,以与竞争对手抗衡,而且在该季度英特尔透露已取得进展,在位于爱尔兰莱克斯利普的Fab 34工厂开始使用EUV极紫外光刻(市场上最先进的半导体制造技术)大规模生产芯片。
他说:“大约两年半前,当我们开始‘四年内五个节点’计划的时候,很多人认为我们有点雄心大胆,但我们是把实现目标的目光放得越来越远。”
从最近一个季度的数据来看,生产笔记本电脑和个人电脑芯片的英特尔客户端计算部门销售额为79亿美金,同比下降3%。制造服务器芯片的数据中心和人工智能部门销售额下降10%,至38亿美金。在这一领域,英特尔承认面临着一些“竞争压力”。
代工服务业务在英特尔整体业务中所占的比例仍然很小,营收为3.11亿美金,同比增长了300%,部分原因是一位主要客户进行了预付款。
今天早些时候,英特尔旗下自动驾驶汽车芯片上市子公司Mobileye宣布销售额增长18%,达到5.3亿美金。最后,英特尔销售网络芯片和低功率处理器的网络和边缘部门的销售额下降32%,至15亿美金。
本月早些时候英特尔曾透露,打算通过将可编程芯片部门(目前属于数据中心和人工智能集团)作为一个独立的业务,以简化其业务。最终英特尔可能会在未来两到三年内通过首次公开募股的方法把该部门分拆为一家独立的公司。
英特尔的可编程解决方案部门主要生产现场可编程门阵列(FPGA),客户可以在发货后针对特定用例对其进行编程。FPGA常用于数据中心、电信、视频编码、航空等行业,也可以用来运行一些AI算法。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。