在德国柏林举行的OpenStack峰会上,OpenStack执行董事Jonathan Bryce宣布,这将是最后一次OpenStack峰会,明年将由Open Infrastructure Summit取代。这不仅仅是名称上的变更,也表明了OpenStack正在从基础设施即服务(IaaS)云产品发展到提供全方位的云服务。
这个变化并不突然。OpenStack一直在扩展产品,正如OpenStack Foundation工程副总裁Thierry Carrez在2017年曾表示的,OpenStack开始“将注意力从单纯的OpenStack软件生产,转向了更加广泛地帮助企业组织拥抱开放基础设施:使用和组合开源解决方案来满足他们在IT基础设施方面的需求。”
具体来说,这使OpenStack成为启动容器、边缘计算、持续集成和持续交付(CI/CD)项目的一部分。到目前为止,OpenStack已经推出了Kata Containers,一种安全容器方法;Zuul,一个CI/CD系统;Airship,Kubernetes的前端;StarlingX,一个边缘计算云堆栈。
Carrez表示,未来OpenStack将是:
“......集成相邻开源社区开发的现有开源项目。但是,一些差距可能会持续存在,并且可能需要额外的技术来填补我们战略重点领域的目标。OSF通过提供IP管理,一组基本协作规则以及上游和下游社区支持服务,使这些项目能够成功地以开放式协作的方式建立起来。项目不依赖于特定的战略重点领域(SFA_:理想情况下,应该会帮助到多个SFA。这里的想法不是要引入数十个项目,而是要策划一系列有助于为用户解决现实问题的强大项目。”
OpenStack开发者基础设施负责人Clark Boylan在一篇名为“OpenDev:OpenStack Infra走进OpenStack社区的未来”的文章,他在文章中这样写道:“将OpenStack和非OpenStack项目放在一起,同时不会引发混淆......我们已经获得了opendev.org域名,这将让我们能够作为OpenDev Infrastructure团队在一个中立的名称下托管服务。”
这些项目会是“OpenStack?”吗,OpenStack Foundation是否会在这一变化中更改名称?
答案是否定的。或者,至少不会很快。
在主题演讲之后的问答环节中,OpenStack首席运营官Mark Collier表示:“OpenStack Foundation品牌并不是重要的,重要的是,Open Infrastructure Summit是要把那些可能不会参与OpenStack的人聚集到一起。”也就是说,如果会员愿意(更名)的话,也是可以的。
OpenStack扩大使命所带来的另一个问题是,这是否意味着它与Cloud Native Computing Foundation (CNCF)形成竞争关系?CNCF的主要开源项目是Kubernetes,但也支持容器、边缘计算和CI/CD项目。听起来有点耳熟?是的。
Bryce在问答环节中表示:“开源项目之间的竞争是愚蠢的,我们希望让开源项目协同工作,共同运行,一起测试。开源的核心就是社区。”
CNCF首席技术官Chris Aniszczyk也相信坚定支持开源社区,但他对OpenStack Summit更名为Open Infrastructure Summit的态度还不太明朗。Aniszczyk发推文称:“有趣的品牌选择......我认为CNCF是开放基础设施的大本营......世界顶级云提供商已做出选择......无论如何,我很高兴看到越来越多的组织推动开源和开放基础设施。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。