你还记得Xen吗?
你还在使用虚拟化吗?
自从Citrix被Cloud Software Group收购退市后,曾经的虚拟化巨头其实某种意义上已经名存实亡。
Cloud Software Group为大规模企业提供关键任务软件。思杰、TIBCO、NetScaler、Jaspersoft、ibi和ShareFile都是Cloud Software Group旗下的品牌。
云原生时代的弃儿
政治与经济总是息息相关,在众所周知的中美之间的PK中,IT产业肯定是首当其中。
我们熟悉的国外厂商纷纷抽身中国市场,一方面是中美博弈的结果,另一方面则是整个IT市场的变革。
而今天,思杰(Citrix)宣布退出中国市场,似乎预示了传统IT架构的落幕。为什么这么说?
虚拟化技术出现于20世纪60年代,此前一直是一门小众的技术,直至x86架构的出现与之完美融合,进而在21世纪前后迎来爆发。
这些年,我们每一个人都可以觉察到数字生活的巨大变化。而这背后是整个IT技术的变化,比如云计算、大数据、人工智能、5G等。
就拿思杰(Citrix)所在的虚拟化市场来说,其直接面对K8S容器技术的冲击。
这种冲击是颠覆性的。经过几年的技术发展和大规模实践,越来越多企业将基于虚拟机的应用程序迁移到容器。
虽然虚拟化也是一种硬件和软件的解耦,但是这种解耦还不够彻底,而容器技术则站在应用角度实现了颗粒度更细的资源利用。
记得在容器技术刚刚出现的时候,业界也在讨论虚拟化与容器孰优孰劣,就像当初公有云与私有云的讨论。
其实不光思杰(Citrix),我们看到被博通收购的VMware的处境也并不乐观。
总之,淘汰思杰(Citrix)和VMware的是时代,因为云时代的云原生才是客户想要的。不管是思杰(Citrix)还是VMware,他们只能奋起直追。
来自国产替代的最后一击
另外对于退出中国市场这件事,其实也没啥可说的。
思杰(Citrix)提供的本地部署的软件以及云端交付的服务,而中国特色的中国市场让思杰(Citrix)水土不服。
虽然思杰(Citrix)也可以国内的伙伴有很多合作,但是随着整个信创(国产替代)的推进,思杰(Citrix)的市场一再被挤压。
原有生产业务加快从国外虚拟化平台迁移到国产信创体系上,国内关键行业客户往往倾向寻求与VMware功能及产品结构对标的虚拟化平台,以降低业务迁移过程中的风险与迁移成本。
在这种趋势下,国内厂商发展迅速,如浪潮、深信服、EasyStack易捷行云、ZStack云轴科技。
而国内公有云大厂,如华为、阿里、腾讯等,他们也转向了自研或者云原生。
Gartner的《中国语境:2023Q2服务器虚拟化市场指南》报告认为,越来越多的企业正在从国外的供应商(如:VMware)向中国供应商转移。在中国,技术重点已经转移到容器化和自动化。
写在最后
下一个离开中国市场的企业会是谁呢?
这是一个充满不确定性的时代,挑战与机遇总是并存。当一扇门关闭的时候,往往一扇窗也就打开了。
题外话:笔者曾多次参加Citrix在美国举行的Synergy大会,以及思杰中国在位于北京东方广场办公楼办公室举办的新闻发布会,并参观思杰设在南京的研发中心。
对于思杰(Citrix)退出中国,除了唏嘘,还有什么呢?
对了,看了下Citrix的官网,这张地图是不是需要更换了。
好文章,需要你的鼓励
这项研究由新加坡国立大学团队开发的DualParal技术,通过创新的双重并行架构解决了AI视频生成的长度限制问题。该方法同时在时间帧和模型层两个维度实现并行处理,配合分块降噪机制、特征缓存和协调噪声初始化策略,使生成分钟级长视频成为可能。实验表明,在生成1,025帧视频时,DualParal比现有技术减少了高达6.54倍的延迟和1.48倍的内存成本,同时保持了高质量的视频输出,为内容创作者提供了生成更长、更复杂视频叙事的新工具。
SoloSpeech是约翰霍普金斯大学研究团队开发的创新语音处理技术,针对"鸡尾酒会效应"问题提出了全新解决方案。该系统通过级联生成式管道整合压缩、提取、重建和校正过程,实现了高质量目标语音提取。与传统判别式模型相比,SoloSpeech采用无需说话者嵌入的设计,直接利用提示音频的潜在空间信息与混合音频对齐,有效避免特征不匹配问题。在Libri2Mix及多个真实世界数据集上的评测显示,SoloSpeech在清晰度、质量和泛化能力上均达到了领先水平,为语音分离技术开辟了新方向。
这项由北京大学深圳研究生院、伟湾大学、腾讯ARC实验室和兔小贝智能联合研究的Sci-Fi框架,通过创新的对称约束机制,解决了视频帧间插值中的关键问题。研究团队设计了轻量级EF-Net模块,增强结束帧约束力,使其与起始帧形成平衡影响,从而生成更自然流畅的中间过渡帧。实验证明,该方法在各种场景下都优于现有技术,特别适用于电影制作、动画创作和视频编辑领域,显著降低了人力成本。
这项来自西北大学和谷歌的研究突破了传统马尔可夫强化学习的局限,通过贝叶斯自适应RL框架解释了大语言模型中涌现的反思性推理行为。研究团队提出的BARL算法通过维护多个解题策略的后验分布,指导模型何时何地进行反思性探索,在数学推理任务上展现出显著优势,比基线方法减少高达50%的标记使用量,同时提高了准确率。这一研究不仅解释了"为什么反思有用",还提供了实用的指导原则,为AI系统的自适应推理能力开辟了新方向。