根据IDC全球云IT基础设施季度追踪报告显示,2020年第二季度厂商从销售IT基础设施产品(服务器、企业存储和以太网交换机)中获得的收入同比增长了34.4%,而传统的非云基础设施产品支出同比下滑了8.7%。
这一增长表明该市场对COVID-19大流行在商业、教育和社会活动方面引发的重大调整以及IT基础架构在这些调整中发挥的作用做出的响应。在世界各地,在线工具已经深入到人们生活的方方面面,包括协作、虚拟商业会议、娱乐、购物、远程医疗和远程教育。云环境特别是公有云是这一趋势的关键推动力。2020年第二季度,公有云IT基础设施的支出同比增长了47.8%,达到141亿美元,首次超过了非云IT基础设施的支出水平。该季度,私有云基础设施的支出同比增长了7%,达到50亿美元,其中本地私有云占比64.1%。
IDC认为,硬件基础设施市场已达到转折点,云环境将在总体支出中占有越来越多的份额。IDC提高了对2020年全年云IT和非云IT支出的预测,同时,云IT基础设施支出仍有望超过非云基础设施的支出,份额分别为54.8%至45.2%。这一增长主要是有由公有云IT基础设施推动的,虽然预计将在2020年下半年有所放缓,但全年同比增长16%,达到524亿美元。私有云基础设施支出在下半年也将出现疲软,全年达到215亿美元,同比仅增长0.3%。
截至2019年,从计算平台和以太网交换机来看,云IT环境相比非云环境占据着主导地位,但是大多数新交付的存储平台仍驻留在非云环境中。从2020年开始,随着公有云提供商增加了存储平台的投资,这一趋势仍将在所有三个技术领域中持续存在。2020年云部署环境中,计算平台仍将是支出最高的部分(50.9%),为377亿美元,存储平台将是增长最快的部分,支出将增长21.2%至278亿美元,以太网交换机部分将同比增长3.9%至85亿美元。
2020年第二季度,所有地区的云IT基础设施支出均有所增加,其中两个最大的地区是中国和美国,年增长率最高,分别为60.5%和36.9%。除了中东欧以及中东非洲以外的所有地区,公有云基础设施的增长都超过了私有云IT的增长。
从厂商层面来看,结果是好坏参半的。浪潮销售云环境的收入翻了一番多,在厂商排名中位列第二,而ODM Direct部分同比增长了63.6%,联想的收入突破10亿美元,同比增长49.3%。
注释:
在全球IT基础设施市场,当两家或者更多厂商之间的收入份额相差1%或不足1%的时候,IDC认为这些厂商位于并列位置。
由于HPE和新华三集团现有的合资公司,IDC从2016年第二季度开始把HPE和新华三集团作为“ HPE /新华三集团”一个整体记录全球市场份额。
由于IBM与浪潮成立了合资公司,所以IDC从2018年第三季度开始将浪潮和浪潮商用机器作为“浪潮/浪潮商用机器”一个整体记录全球市场外部市场份额。
长期来看,IDC预计云IT基础设施支出的五年复合年增长率为10.4%,到2024年达到1093亿美元,占IT基础设施总支出的63.6%,公有云数据中心占比69.4%,复合年增长率为10.9%。私有云基础设施支出的复合年增长率为9.3%。非云IT基础设施支出将在2020之后开始反弹,但总体将继续下滑趋势,复合年增长率为-1.6%。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。