ZD至顶网服务器频道 09月02日 新闻消息:据虚拟巨头VMware负责vCloud Air产品开发和运营的高管Ajay Patel介绍, VMware 自己的云现在进入盈利阶段,而且还衍生出其他 VMware产品可以利用的创新。
VMware从2010年左右开始就涉足云领域,当时的策略是打造遍及全球的数字谷仓,虽然用的是与第三方数据中心共存的办法,VMware当时的承诺是超级容易的混合云,原因是VMware自己的云只运行vSphere。但VMware在 2016 年初变招,收起雄心壮志,与其他觉得可利用vSphere发展赚上一把的云商家广结合作伙伴关系。
VMware 是一个市值70亿美元的公司,但这该数字与AWS、谷歌和微软三大云构建商一比就有些微不足道了。因此,VMware的反其道而行之举就有些让人懵了,但却也是完全可以理解的。就在IBM 决定了要提供托管VMware后不久,VMware即一举实现了全球性的规模,而且几乎成了理想中的最佳分销商,这样一来VMware的收敛雄心之举貌似并不是损失。
记者在本周的2016年VMworld大会上了解到,IBM 是对该伙伴关系全情投入,是第一个与新的云基础(Cloud Foundation)签了优先云运营的商家。云基础提供vSphere 和vSphere即服务,以辅助混合云的建立。
Patel还表示,VMware用户要寻找不同类型的云服务,许多其他 vCloud Air网络 (VCAN) 成员公司也在蓬勃发展。有些VMware用户要的是托管云,以便在主机的数字谷仓里运行私有云。也有些用户要的是平台即服务。有些用户要的却是基础架构即服务。现有的VCAN营运云伙伴超过 4000家,Patel和 VMware 首席执行官Pat Gelsinger信心十足,觉得VMware可以经营一个小而优美、但仍举足轻重的云。
Gelsinger其实曾在大会上说了好几次,指VCAN合作伙伴合在一起每年在Vmware 云相关的收入上有数十亿元的进账。AWS 和 Azure 每年的进账约为100亿美元(仍在急速上升)。假如由vSphere衍生的行业云收入是该数字的一半,VMware也就成了大云玩家了,而且是靠丰厚的软件许可证利润而成了大云玩家。
Patel表示,vCloud Air的盈利,无需来自VCAN伙伴许可证的贡献。所以 VMware 是在两方面都成了赢家。
vCloud Air仍会继续为VMware和大规模的客户提供vSphere 开发测试平台,这些客户也非常乐意提供反馈。据记者了解,vCloud Air一直在运行年底将成为vSphere 6.5的软件,即是说vCloud Air也在帮助这方面的产品开发。Patel表示, vCloud Air的灾难恢复产品已被收进新的vCloud 控制器用的vCloud 可用性软件里。vCloud 可用性软件是一款面向VCAN合作伙伴的灾难恢复即服务软件。
如此看来,VMware已经找到了一条进军云的路线,而且无需自己去做那些费力不讨好和花销大的云活计。再加上VMware手里拥有新的云基础产品,可望借其打造兴旺的混合云业务。但这并不是说 VMware认为这些是板上钉钉的事:VMware知道,各种工作负载爆棚,只有不断创新才能令vSphere更加出色;VMware在本周的VMworld大会上首次推出Cross-Cloud,向我们表明VMware确实是心怀雄图大略,业界商家亦应该谋求良策。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。