今天又有一份抢眼的财报出炉,这份财报显示,VMware正在加速从一家商用数据中心基础设施销售商转型为全面的解决方案提供商。
在第三季度,VMware每股收益为1.56美元,比市场预期高出5美分,同比增长26%;收入增长13.5%,达到22亿美元,超过市场预期的21.7亿美元。
VMware首席执行官Pat Gelsinger所说的技术支出的广泛增长“将在未来许多年内持续下去”,也反映在VMware发布的看涨预期中。VMware将2019财年全年收入指引提高了6000万美元达到88.82亿美元,并将每股收益高点从之前的6.14美元提高到6.22美元。
这振奋了华尔街投资者,VMware股价在盘后交易中上涨近2%。VMware也是少数几家完全从过去一个月的抛售中恢复过来的科技股之一。
VMware高管表示,VMware在云市场中的战略举措——包括与AWS合作以及收购CloudHealth和Kubernetes专业公司Heptio——证明了VMware对混合云的弹性及帮助客户引领多云世界的信心。Gelsinger表示:“大家与我们过去五到6年对混合云持有的观点保持一致。”
他还强调,VMware已经完全从销售基本的计算基础设施转向专注于销售解决方案了。
“我们几乎不再销售计算机了,我们销售的是VMware Cloud Foundation,采用VxRail的全套超融合解决方案、以及安全和计算的产品组合。几乎所有都与混合云、网络安全和数字工作空间保持一致,以提供更高的价值。”
不久前,VMware还被认为很容易受到云计算和软件容器(实际上是微型的虚拟机)的双重威胁。然而,现在VMware已经成功地成为云计算的赋能者,将虚拟化与增值服务捆绑在一起。
Gelsinger特别强调了VMware新推出的vSphere Platinum Edition,该产品将AppDefense端点安全产品与其旗舰产品vSphere虚拟化相集成。他说:“虚拟机内嵌安全功能正在冲击着安全行业,我们要从根本上改变安全状况。”
“到目前为止,一直都还不错。VMware正在适应新的技术和趋势。同时,VMware仍然是企业界最值得信赖的厂商之一,”Pund-IT总裁兼首席分析师Charles King这样表示。
Gelsinger还特别提到了Amazon重磅宣布推出了本地版本的Amazon云,其中就包含了VMware虚拟机,这也证明了VMware不断扩大合作伙伴所取得的成果。VMware新的VMware Cloud Provider Program(包括VMware和第三方云产品的组合)计划现在已经拥有4200个云合作伙伴。Gelsinger表示:“我们看到了这项业务的巨大发展势头。”
VMware没有按产品线划分收入,但首席财务官Zane Rowe透露了一些增长亮点。其中,NSX虚拟化和安全产品组合的许可预订量增长了40%,该季度前10大交易中有9个都包含了NSX;vSAN存储虚拟化层增长了近50%;母公司Dell Technologies的交叉销售也在该季度贡献了7亿美元的收入。
VMware也在区域多元化方面表现出色,国际销售额增长超过19%,现在这部分的占比要大于国内销售额。
King说:“在过去的五年中,人们错误地预言说VMware会消亡,但像Kubernetes这样的变革性技术往往会在企业客户中以相当平缓的速度发展。VMware越是从长期上适应刚刚发展起来的新公司和解决方案,所面临的风险就越小。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。