ZDNet至顶网服务器频道 04月17日 新闻消息:AMD今天宣布2015年第一季度营收为10.3亿美元,经营亏损1.37亿美元,净亏损1.8亿美元,每股亏损0.23美元。非GAAP经营亏损3000万美元,净亏损7300万美元,每股亏损0.09美元。
“打造伟大的产品,深化客户关系与简化运营仍是提升AMD竞争力以及改善财务业绩的正确且长期的方向。”AMD总裁兼首席执行官苏姿丰博士表示。“在PC市场环境面临挑战的大背景下,我们专注于提高我们近期的财务业绩,在重新平衡渠道库存和发运更强新产品的基础上,为下半年带来更强劲的市场增长。”
• 2015年第一季度业绩
o 营业额为10.3亿美元,环比下降17%,同比下降26%。
o 毛利润率32%,环比增长3%,主要由于成本下降或2014年第四季度库存调整。非GAAP毛利润率32%,环比下降2%,主要由于第一季度产品组合及游戏主机版税下降。
o 经营亏损1.37亿美元,上一季度经营亏损为3.3亿美元。非GAAP经营亏损3000万美元,上一季度非GAAP经营利润为5200万美元,主要由于营业额及毛利润率下降。
o 本季度净亏损1.8亿美元,每股亏损0.23美元,非GAAP净亏损7300万美元,非GAAP每股亏损0.09美元;上一季度净亏损3.64亿美元,每股亏损0.47美元,非GAAP净利润1800万美元,非GAAP每股收益0.02美元。
AMD其它事项
o 作为简化并提高公司投资重点战略的一部分,AMD退出高密度服务器系统业务,以前被称为SeaMicro。
o AMD与GlobalFoundries公司达成第五次晶圆供应修订协议。AMD预计将在2015年购买价值约10亿美元的晶圆, 符合公司当前的市场预期。
近期亮点
• AMD透露即将发行的A系列APU(代号为“Carrizo”)在能效和设计上的改进。与上一代APU相比,A系列APU在性能和电池寿命方面预计将实现两位数的百分比增长。
• AMD携手“异构系统架构基金会”的其他成员ARM、LG电子、联发科技、高通、三星共同发布了HSA1.0规范,使该行业跨越数十亿SoC驱动移动设备、台式电脑、高性能计算系统和服务器,向真正的异构计算又跨近一步。
• 在核心嵌入式市场,AMD高性能APU持续获三星电子、通用电器智能平台和富士通的新品采用。
• AMD继续采用全新设计案例并加大对其FirePro™ 专业显卡及服务器GPU的生态系统支持。
o 随着第二代HP ZBook 14 G2和15u G2移动工作站的推出,AMD FirePro专业显卡已可同时应用于高端与入门级HP ZBook解决方案中。
o AMD FirePro™服务器GPU现可应用于HP ProLiant DL380 Gen9,其为世界上最畅销的服务器*,专注于各种专业应用程序包括学术和政府集群、石油和天然气研究以及深度神经网络。
• 宏碁、明基和LG电子开始提供支持AMD FreeSync™技术的显示器,旨在使其在几乎任何帧速下能够达到游戏流畅和视频播放。2华硕、Nixeus、三星和优派也已宣布了在2015年上半年推出全新支持AMD FreeSync™技术显示器的计划。
• AMD宣布与核心技术合作伙伴推出LiquidVR™,实现新一代虚拟现实,能够提供身临其境的体验,让虚拟世界中的场景、对象与文字变得更加 “逼真”。
• AMD继续推进64位基于ARM架构的服务器和嵌入式生态系统,并宣布其不断进步的操作系统和管理程序将支持AMD即将问世的64位ARM处理器。除OpenSUSE13.2外,Linux®3.19 Kernel、Fedora 21以及Xen 4.5都将支持AMD 皓龙™ A1100系列处理器。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。