ZD至顶网服务器频道 10月19日 编译:在英特尔公司的重拳猛轰之下,AMD公司在其2015年第三季度的计算机芯片营收报告中只录得6500万美元,而在此之前其还曝出面临大量库存产品无法售出的尴尬局面。
与此同时,这家处理器设计厂商还将在今年最后三个月当中第一次售出一定数量的64位ARM兼容服务器芯片。
上周四下午,AMD公司公布了其发人深省的2015年第三季度财务结果,下面就让我们从GAAP角度了解在截止于9月26号的过去三个月当中,AMD取得了怎样的运营成效:
• 净收入为10.6亿美元(折合约6.46亿英镑),较上年同期的14.29亿美元(折合约9.23亿英镑)跳水25.7%,x86处理器与图形芯片组销售额的显著降低成为此轮营收下滑的主因。
• AMD公司2015年第三季度的净亏损额为1.97亿美元(折合约1.27亿英镑),其2014年第三季度则实现了1700万美元(折合约1100万英镑)的盈利。
• 每股净亏损最终为0.25美元,而上年同期AMD公司实现了每股0.02美元的盈利。
• 由于AMD公司目前仍然囤积着大量无法售出的陈旧x86系统芯片,由此带来的高达6500万美元(折合约4200万英镑)的产品库存使得当季度恢复盈利的希望彻底化作泡影,这同时也意味着AMD方面必须对其进行降价销售以收回部分资金。
• AMD公司计算与图形业务营收较上年同期大幅跳水46%,这一切都要归功于持续走低的PC市场销售额以及更加可怜的芯片需求。面对笔记本产品不断降价的趋势,AMD公司也不得不持续拉低其x86处理器产品的价位。有趣的是,Carrizo芯片家族在面世之后倒是取得了12%的连续销售额增长幅度。
• 来自企业、嵌入式与半定制化业务的营收较上年同期下滑2%,这主要是由于“较低的嵌入式产品与服务器处理器销量所致”。
• AMD公司将在今年最后一个季度当中发布“适中的”生产级64位ARMv8服务器芯片,这也是其第一次发布自家的“西雅图”系统芯片。
AMD公司CEO Lisa Su在电话会议上向分析师们表示:我仍然相信AMD公司在数据中心市场上的融合型网络、存储与服务器业务领域占有一席之地。我认为我们可以断言,目前ARM架构在服务器市场上普及速度不快的主要原因在于软件以及相关架构仍不够完善。而在西雅图系统芯片方面,我们将于今年第四季度进行首批数量适中的产品销售。我认为将ARM作为服务器平台的构想是一个长期的过程,因此其无疑在服务器市场以及数据中心当中都是具备竞争力的,我们立足于x86业务对其保持高度关注,并将继续以互补方式推动ARM技术的相关研发及推广工作。
• AMD公司已经于南通富士通微电子公司共同成立了一家合资企业,其在这项举措当中应该是投入了3.71亿美元现金,其中净支出款项为3.2亿美元。AMD目前已经基本上剥离了位于马来西亚与中国的半导体组装及测试业务,并将其交由南通富士通公司打理。(备注:Su及她的的首席财务官Devinder Kumar曾经在这次电话会议当中多次提到‘成功执行’这一说法。)
AMD公司的股价在此次财报电话会议当之后下降了0.51%,而其实际运营表现超出了分析师们所提出的营收9.96亿美元与每股亏损0.12美元这两项预期。
对于那些希望AMD公司逐步向好的朋友,我们可以公布其当前运营状况:AMD在银行当中拥有7.55亿美元现金,而整体债务额则为22.6亿美元。尽管拥有多条颇有希望的业务线,但其重归正轨似乎仍然遥遥无期。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。