作为一家新上市的公司,戴尔科技公司(Dell Technologies)今天公布了季度财报显示,季度收入增长略好于预期,但净亏损高于预期。
9%的收入增长主要集中在服务器和网络设备,以及对计算虚拟化巨头VMware持有的80%所有权份额方面。VMware今天也公布了好于预期的财报结果。
据戴尔的2019财年第四季度财报显示,该季度的净亏损比一年前翻了一番多,达到2.87亿美元,收入为238.4亿美元。在支付利息、调整股权投资价值和某些其他成本之前,戴尔的营业利润为27亿美元。分析师此前预计,戴尔的净亏损将低于4500万美元,收入为238.3亿美元。
同比变化很难衡量,因为戴尔最初没有提供每股利润的数字,而这是华尔街通常追踪利润的方式,因为由于戴尔再次上市使得股票数量在季度中期发生了变化,但后来它将调整后的利润定为每股1.86美元,略高于市场预期的1.81美元。
戴尔也没有为未来几个季度或未来一年提供指引。
或许戴尔还有些不确定的想法,投资者在盘后交易中推动戴尔股价仅上涨约1%。之后,股价一度上下波动,然后才下跌约半个点。
就在今天之前,戴尔股价在今年已经上涨了15%,好于标准普尔500指数的11%,并且仅在上个月就上涨了20%。在今天的常规交易中,该股下跌了四分之三个点,至每股55.82美元。
戴尔首席财务官Tom Sweet表示,所有三个业务部门的全年收入均实现了两位数增长,并且产品组合的“可盈利增长”也是如此。他说:“在2020财年,我们将继续以规范的方式经营业务。我们将继续专注于实现长期相对增长、股票收益和现金流,同时为股东带来长期价值,满足客户的全方位需求。”
Enderle Group分析师Rob Enderle认为这意味着,不出意外的话,戴尔将专注于削减成本。“我预计接下来戴尔会更努力地遏制亏损。”
但戴尔也表现出相对于一些传统竞争对手的实力。例如,HPE上周公布财报显示,收入环比下滑2%,打破连续四个季度的销售额增长。
市场研究公司Wikibon首席分析师Dave Vellante表示:“对于一家如此庞大、规模900亿美元的企业来说,这样的增长令人印象深刻——令人惊讶于这样一个庞大的鲸鱼可以显示出这种增长方式。”
戴尔表示,今年运营亏损减少了92%,降至1.91亿美元,调整后的营业利润为89亿美元,比2018财年增长14%。净亏损下降25%,达到21亿美元。
还有一个问题是,戴尔首席执行官Michael Dell可以从偿还670亿美元收购EMC欠下的剩余500亿美元债务。戴尔表示,自完成对EMC的收购依赖,已经偿还了146亿美元。
其中约有13亿美元是在第三季度偿还的。在第四季度,戴尔只偿还了2亿美元,显然是因为在再次上市的过程中产生了50亿美元的额外债务。
Vellante说:“关键问题仍然是资产负债表,这就是股票交易的方式。考虑到VMware价值700亿美元,而戴尔拥有VMware 80%的股权——也就是拥有价值560亿美元的所有权股份。然而戴尔的市值是400亿美元。“
他说,这意味着戴尔核心价值为负160亿美元。“因此,这是一种拥有VMware的廉价方式,这是一家被低估的公司,或者未来还有很多工作要做的公司。我认为戴尔是三者兼有。”
他补充说,偿还债务需要一些时间。“在这期间,戴尔无法进行激进的并购或股票回购。但如果市场保持强势,我认为他们会活得很好。”
戴尔的核心基础设施解决方案集团(包括面向数据中心销售的产品)的收入增长了10%,达到99亿美元,其中服务器和网络收入增长了14%,占据主导。存储业务增长放缓至7%,但最近市场份额有所增长,营业收入增长了21%。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。