随着企业的IT部门越来越多地寻求利用云来实现创新并推动数字化转型,以及容器、Kubernetes及微服务等技术热度的持续攀升,云原生正在引领云计算的下一个十年。
开源一定是开放吗?
开源与开放似乎是硬币的两面不可分,但是在原Rancher Labs联合创始人及CEO、现SUSE工程与创新总裁梁胜看来,有时候开源并不等于开放,为了将“真开源’”交还给客户与用户,SUSE坚持着“开放的互操作性”,即为客户提供从底层操作系统到容器管理、Kubernetes管理、IT基础架构管理、应用管理、多云管理等方面的产品方案及技术支持,又在各层级上均良好地兼容与支持着行业中的同类解决方案。
在第四届“企业云原生创新大会Enterprise Cloud Native Innovation Conference”(以下简称“ECIC”)上,SUSE大中华区总裁秦小康表示,技术的垄断将加剧锁定与傲慢,我们要警惕那些强行捆绑打包的“全栈”方案。上云是势在必行,选择真正开放的、兼容的、不给客户被锁定风险的解决方案才是实现这一设想的路径。
云的一个显著特点是标准化交付,进入到云原生时代,全球有大约100多种Kubernetes分发版,如果过去是上云不一致,现在则是K8S的兼容问题。
“这个不是技术的难度,而是商业的选择。SUSE要做的就是解决这个问题,无论你选哪个K8S都是统一体验,无论你选哪一个云。云原生的意思是说我天生以来跟云是兼容的,不论是公有云、私有云还是混合云。” 秦小康说。
但是现实情况是供应商锁定,想要使用我的容器,你必须用我的Ceph、OpenStack、操作系统等。而SUSE的每一个产品都实现了互操作性,你可以随变替换。
创新的原动力
虽然说,现在云计算产业的发展已经今非昔比,但是这并不代表市场的机会没有了。
秦小康表示,现在云计算并没有达到像用水、用电一样统一使用IT资源,这也是SUSE收购Rancher Labs之后一直在做的事情。 双方整合研发团队、销售团队、技术团队,协同效应明显,SUSE能够帮助Rancher Labs的产品与市场需求匹配从5%扩大到95%。
企业要进行数字化转型必须降本增效,但是传统业务应用的复杂性却是显而易见的。如果要解决这些问题,就需要实现技术兼容。
对于新技术的追求会创造很多机会,而新技术在行业中的落地应用也会越来越深入。例如对于广发银行而言,早期PaaS平台不满足松耦合架构,无法根据新技术演进和功能自主掌控迭代更新和维护。
Rancher与广发银行技术支持和推广团队建设了广发银行应用云共7个集群,60个节点,承载内部容器化业务系统,并在交付后,针对客户需求量定做培训、应用上云标准化制定、应用容器化改造、安全漏洞主动告警、制定平台发展路线规划等方面问题,通过制定发展和平台推广计划与目前主流技术相结合的手段,帮助广发银行更好的将平台使用起来。
秦小康表示,创新需求大多来自客户,你要成功的创新,你就需要得到用户的认可。
在本届ECIC大会上,SUSE与openEuler在大会上正式携手宣布了双方战略合作的开启,并联合发布了SUSE的openEuler发行版——数硕Linux。
在国内IT迎来新的发展机遇的背景下,SUSE加入openEuler社区,发布基于openEuler的Linux版本的示范意义深远,这也契合SUSE Rancher相关云原生产品,在服务器、云、边缘计算和容器各方向持续创新。
“SUSE要做国产化,要跟openEuler社区做好的整合,我们更好的服务于中国客户,另外一方面我们也会有一些帮助openEuler社区走向世界。”秦小康如是说。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。