计算机芯片制造商AMD今天发布了第四季度财报,收入和利润表现抢眼,轻松超过了分析师的预期水平。
该季度AMD在不计入股票补充等特定成本情况下的每股利润为52美分,收入为32.4亿美元,此前华尔街预期的每股利润为47美分,销售额为37亿美元。
AMD首席执行官Lisa Su(如图)表示,“2020年我们大大加快了业务发展的步伐,实现了创纪录的年收入,同时扩大了毛利率,净收入比2019年翻了一番”。
按业务部门划分收入来看,AMD整体销售表现是十分强劲的。受到Ryzen处理器的推动,AMD计算和图形业务的收入为19.6亿美元,较去年同期增长18%。同时,服务器和半定制芯片(包括AMD的EPYC服务器芯片)的销售额比去年同期猛增176%,达到12.8亿美元。
Su在电话会议上表示,由于微软和索尼新发布了Xbox和PlayStation 5游戏机,AMD游戏业务得到了大幅推动。
Su说:“根据当前市场的强劲需求,我们的半定制业务销售额比上一个游戏机产品周期增长更快,预计今年上半年的销售情况要比以往更好。”
关于服务器业务,Su说云和企业销售该季度都表现很强劲。她说:“谷歌、微软、腾讯和其他厂商正在持续扩大使用Epyc处理器,以更大范围地支持他们内部的关键基础设施,同时AMD支持的云实例数量也在不断增加。”
AMD很好地利用了主要竞争对手英特尔的发展动荡期,后者在下一代制造工艺方面屡次推迟,导致失去不少市场份额。本月早些时候,英特尔宣布现任首席执行官Bob Swan即将辞职,前VMware老板Pat Gelsinger接任。
去年10月,AMD表示将以350亿美元的价格收购可编程芯片专业公司赛灵思,吸引更多客户离开英特尔而选择AMD。赛灵思专门制造可以针对不同计算任务即时进行重新编程的FPGA,而在这个市场中,英特尔是AMD的主要竞争对手。
Su在电话会议上向分析师提供了有关此次收购的最新消息,称收购已经通过了“几个重要的监管里程碑”,有望在今年年底之前完成。
Constellation Research分析师Holger Mueller表示,AMD正在全力以赴,年收入正在逼近100亿美元大关。
Mueller指出:“AMD在很好地控制成本增加的同时,使营业收入增长一倍多。很高兴看到AMD在研发方面的投资超过了销售和营销成本的增长,这表明AMD在投资于未来产品线的同时,能够很好地管理这些成本。随着AMD即将完成对赛灵思的收购,所有这些迹象都表明,AMD将会在2021年实现更进一步的增长。”
也许这一点很快就会得到验证。AMD表示,预计第一季度收入在31亿美元至33亿美元之间,远高于华尔街预期的27亿美元。
AMD预计全年收入为133.7亿美元,相当于增长37%,此前华尔街预期的全年收入为122.6亿美元。
Su表示:“2021年的财务前景突显了我们产品组合的实力以及PC、游戏和数据中心市场对高性能计算的强劲需求。”
AMD股价最初在盘后交易中上涨了4%,但随后又回落了。
Pund-IT分析师Charles King认为,这可能是由于投资者们认为赚取一些短期利润而不是押注未来的做法是明智的。
他说:“过去一个季度AMD的强劲表现以及对未来的乐观展望令人欣喜。但是,关于疫情导致的持续不确定性,仍然令人们对未来几个月和明年的情况很担忧。”
好文章,需要你的鼓励
这项由加州大学圣地亚哥分校和微软研究院合作开发的REAL框架,通过程序分析反馈训练大型语言模型生成高质量代码。与传统方法不同,REAL采用强化学习将代码安全性和可维护性作为奖励信号,不依赖人工标注或特定规则。研究在多个数据集上的实验表明,REAL在保证功能正确性的同时显著提高了代码质量,有效解决了"即兴编程"中的安全漏洞和维护性问题,为AI辅助编程提供了新的范式。
加州大学伯克利分校与Meta FAIR研究团队开发了"Self-Challenging"框架,让大语言模型通过自己创建和解决任务来提升能力。该方法引入创新的"Code-as-Task"格式,包含指令、验证函数、示例解决方案和失败案例,确保生成的任务既可行又有挑战性。在工具计算、网页浏览、零售服务和航班预订四种环境测试中,仅使用自生成训练数据,Llama-3.1-8B模型性能提升了两倍多,证明AI可以通过自我挑战实现有效学习,减少对人类标注的依赖。
南洋理工大学与SenseTime Research合作提出了PoseFuse3D-KI,一种创新的人体中心关键帧插值框架。该方法将3D人体模型信息融入扩散过程,解决了现有技术在处理复杂人体动作时产生扭曲结果的问题。研究团队开发了专门的SMPL-X编码器直接从3D空间提取几何信息,并设计了融合网络将3D线索与2D姿态无缝整合。他们还构建了CHKI-Video数据集,包含2,614个视频片段及完整的人体标注。实验结果显示,PoseFuse3D-KI在PSNR上提升9%,LPIPS减少38%,显著超越现有方法。
这项研究提出了LongGuide算法,解决了大型语言模型在长文本生成任务中的局限性。研究团队发现,仅依靠上下文学习无法使模型充分掌握文本的语言和格式特性。LongGuide通过自动生成两种指导原则:度量指导原则和输出约束指导原则,显著提升了模型性能。在七种长文本生成任务中,该方法使开源和闭源模型的ROUGE-L评分平均提高约6%。LongGuide具有通用性强、易于学习、成本效益高等优点,为提升AI长文本生成能力提供了新方向。