至顶网服务器频道 11月29日 新闻消息(文/李祥敬):当前,开源已成为引领行业发展的主力军。作为专注于开源的SUSE已经从一家 Linux供应商发展成为一家提供云、软件定义式基础设施以及应用交付解决方案的企业。作为一家开源软件公司,SUSE创立于1992年,最初以销售Linux操作系统为主业,经过长期发展,这家公司已经成为全球知名的开源软件公司。
在全球诸多的开源社区,SUSE都是重要的参与者和贡献者,它是Linux基金会核心成员、OpenStack白金会员、GONME核心贡献者、KVM核心贡献者和Xen核心贡献者、Cloud Foundry白金会员以及CNCF主要成员等等。今天,SUSE的产品不仅限于操作系统,还包括存储、虚拟化、IaaS、PaaS和管理等。
SUSE公司副总裁、亚太区及日本总经理江永清(左)、SUSE首席技术官Thomas Di Giacomo(中)、SUSE公司全球销售总裁Ronald de Jong(右)
基于这样的多元化业务发展策略,SUSE的业务增长非常迅速。SUSE公司全球销售总裁Ronald de Jong告诉记者,在云服务和软件定义存储方面,SUSE的增长是非常喜人的。特别是云服务业务的增速达到60%,新的客户和工作负载在云端增长都很快。而在软件定义存储方面,SUSE的产品帮助客户承载海量的数据,越来越多的企业选择了SUSE。“SUSE是从Linux起家的,而这几年行业整合的趋势非常明显,所以SUSE在Linux市场的行业地位不断提升。”
对于亚太地区,SUSE公司副总裁、亚太区及日本总经理江永清表示,总体上来说,整个亚太地区实现了健康的增长。而且SUSE的生态圈建设不断扩大,包括与阿里巴巴展开了合作以及在OpenStack业务上获得了更多用户。
SUSE首席技术官Thomas Di Giacomo说,之所以SUSE取得了比较好的市场成绩,这得益于SUSE在产品线方面的布局。为了满足客户的需求,SUSE不断创新产品组合,比如说OpenStack加上存储或者Linux加K8S之类的。“从市场角度来说,我们现在能够更好地以一个专业的服务提供商的身份满足客户的需求。从技术战略的角度来说,我们希望能够给客户提供整体的SUSE解决方案。”
在Thomas看来,从宏观技术路线图来看,企业现在更多是关注服务的互操作性,包括容器化OpenStack、软件定义存储等,整个技术之间也会有更加好地融合,方便企业在不同云之间进行工作负载的迁移。除了这些,为了满足客户对于物联网、边缘计算、机器学习等技术的需求,SUSE也提供了对应的服务。
Thomas还透露,在2019年第一季度SUSE可以成为独立的、专注于开源的软件公司,到时SUSE将成为一个保持中立、独立的开源软件公司。“SUSE一直专注于开源,通过开源技术为用户提供企业级应用。这种财务和资本上的变化并不会影响SUSE现有的产品策略,我们会保持连续性。相反,通过这种独立反而有助于SUSE在产品和技术上的创新。”
Ronald也表示,从销售的角度来说,SUSE成为一家独立公司会在市场层面产生一些比较大的积极性影响。在品牌建设上,SUSE会有更大的独立自主性。这对于SUSE的市场拓展会有很大的帮助。“从某种意义上说,SUSE会是一家独立的欧洲开源软件公司。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。