AMD近日发布第四季度财报,由于两个主要业务部门的强劲销售表现,使得AMD该季度的收益和收入均超出分析师的预期水平。
除了强劲的季度业绩之外,AMD还对未来三个月和全年给出了看涨预测,使得AMD股价在延长交易中上涨超过10%。
第四季度AMD的营业收入为12亿美元,比去年同期增长112%,这主要归功于更高的收入和扩大的毛利率。扣除股票补偿等特定成本后的每股收益为92美分,收入同比增长49%,达到48.3亿美元,高于此前华尔街预期的每股收益76美分,收入45.3亿美元。
不过AMD表示,该季度净收入降至9.74亿美元,因为上一财年最后一个季度的估值减免释放带来了13亿美元的所得税优惠。
从整个2021财年来看,AMD的收入相比2020财年增长了68%,达到164亿美元。2021年的营业收入增长166%,达到36.5亿美元,净收入增长27%,达到31.6亿美元。
AMD公司总裁兼首席执行官Lisa Su表示,对于AMD来说这是“出色的一年”,收入和盈利能力都创下历史新高。
Su表示:“我们的每项业务都表现得非常出色,在云客户和企业客户越来越多地采用AMD EPYC处理器的推动下,数据中心收入同比翻了一番。我们将继续扩大现有产品组合并推出下一代PC、游戏和数据中心产品,预计2022年将迎来又一年的显着增长。”
AMD发布了非常乐观的第一季度业绩指引,预计该季度销售额在49亿美元至51亿美元之间,比去年同期增长45%,此前华尔街预期的第一季度收入为43.2亿美元。
AMD预计2022财年的总销售额为215亿美元,高于192.6亿美元的预测,相当于比刚刚过去的一个财年增长了31%。
AMD的信心源于近两年疫情爆发以来PC和电子产品销售的持续激增。最近AMD推出了有望显著提升性能的新型计算机芯片,也使得AMD能够在PC领域向英特尔发起挑战。
AMD的计算和图形部门反映了这一趋势,第四季度收入为26亿美元,比去年同期增长32%。
AMD表示,这一增长是受到了市场对AMD新锐龙处理器和Radeon图形芯片的高需求推动的。
然而,最令人印象深刻的增长出现在AMD嵌入式、企业和半定制领域,其中包括计算机服务器和游戏机芯片的销售,这部分收入增长了75%,达到22亿美元,一部分原因是来自AWS等云计算巨头的销售额有所增长。
Su在电话会议上向分析师表示:“由于市场对微软和索尼最新游戏机的持续强劲需求,我们预计今年[半定制]收入将增长,”她补充说,当前的游戏机升级周期正在超过所有代产品。
分析师Patrick Moorhead表示:“AMD该季度表现出色,创下了收入和每股收益的新高。更令人印象深刻的是,AMD上调了第一季度和全年的预期。Lisa Su和AMD正在全力以赴。”
与此同时,AMD一直在努力完成对赛灵思近350亿美元的收购交易,预计这笔交易将使该AMD在数据中心芯片市场上拥有更多火力来对抗英特尔。1月27日,AMD宣布已经获得中国监管机构的批准,可以继续进行交易。
“唯一剩下的监管审查是FTC批准我们的HSR重新申请,预计将在2022 年第一季度完成交易,”Su在回答问题时这样表示。
她还告诉分析师,AMD有足够的芯片产能来满足2022财年的销售预测。她说,AMD在2021年花费了超过10亿美元来确保长期产能,她预计随着时间的推移,芯片短缺将变得“不那么严重”。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。