3 月 16 日,青云科技(qingcloud.com,股票代码:688316)迎来上市 2 周年。过去 2 年,在加快建设数字中国政策的指引下,企业数字化转型走深向实,更加专注业务价值。青云科技深刻洞察客户需求变迁,积极做出战略调整,围绕“私有云、公有云、云原生、信创”四大核心业务线,推行精品化创新,不断提升产品力,强化开放生态建设,打造整合方案,帮助企业筑牢数字基石,创造新价值。
数字化进入“深水区”
相较于初期刚刚推行数字化战略,进入数字化“深水区”之后,企业转型呈现出新的的特点:从少数试验到倍增创新,从非核心业务系统重构到核心系统重构,从聚焦资源利用的降本增效,到整体服务升级、运营模式变革、商业形态重塑的延伸。
具体来看,一方面,企业更加专注业务价值,通过深入运用云计算、大数据、AI 等数字技术,重构 IT 系统,更高效响应市场需求,最终服务业务成功。另一方面,国家提出加快推动高水平科技自立自强,创新驱动发展战略,金融、通信、制造等关键领域企业启动信创改造步伐,通过 IT 基础设施的国产化替代,构建安全可信、自主可控的生产环境。
走精品化创新路线 聚焦四大核心业务线提升产品力
围绕企业两大核心需求,青云科技在过去 2 年坚持走精品化创新路线,聚焦“私有云、公有云、云原生、信创”四大核心业务线,在保持行业领先的基础上,进一步提升产品力,以帮助企业实现更易部署、更佳体验、更低成本、更大价值,为数字化转型提质增效。
在私有云层面,青云科技可为企业提供可运营、可管理的全栈云平台,高性能、高可靠、可扩展、简单易用的云易捷,助企业挖掘海量数据价值的 NeonSAN 分布式块存储、U10000 非结构化数据存储等云产品,全面满足企业数字化业务运行的计算、网络、存储等需求。
在公有云层面,青云科技可为企业提供安全可靠、弹性伸缩、秒级响应的云服务器,快捷的高效云上高性能计算 EHPC,助企业轻松实现云端运行容器化应用的 QKE 容器引擎等,满足企业业务规模化增长的高并发、高性能算力及容器服务等需求。
在云原生层面,青云科技可为企业提供 KubeSphere 容器平台、KSV 云原生虚拟化为核心的覆盖“敏捷基础设施、云原生核心功能组件、数据库及中间件、应用及服务”的完整云原生产品家族,满足企业多集群统一管理、DevOps 落地等云原生业务多样化需求。
在信创层面,青云科技可为企业提供信创云平台、信创存储、信创容器、信创桌面云、信创多云管理平台的全栈产品体系,并与 100 多家国产服务器、操作系统、中间件及数据库等实现产品兼容性互认证,快速搭建起完整齐备、集中纳管、统一运营运维的信创平台。
同时,从 2022 年业绩预告来看,青云科技在核心业务线上的战略调整效果显现,毛利持续增长,亏损持续缩减。接下来,青云科技将围绕核心优势产品,继续加大盈利能力建设。
做纯粹的国产化基础软件供应商,建设数字中国
由国务院印发的《数字中国建设整体规划》提出,建设数字中国是数字时代推进中国式现代化的重要引擎,是构筑国家竞争新优势的有力支撑。
青云科技总裁林源表示,国家在推进数字中国建设过程中,第一步是与多元算力的接驳,以支撑广泛的行业数字化应用,在“东数西算”运营阶段,青云科技作为一家纯粹的国产化基础软件供应商,能够提供多元算力调度和运营的超级智算平台支持。而随着各个区域构建自己的政务云,服务智慧政务、智慧城市等业务开展,青云科技能够提供安全可靠的软件支持,加速产业数字化。
事实上,在推动数字技术和实体经济深度融合进程中,青云科技还始终保持开放原则,与产业上下游生态伙伴各施所长,打造一体化解决方案,服务金融、能源、制造、交通、物流、医疗、教育、互联网等众多行业企业数字化转型,向纵深处发展。
站在上市 2 周年的新起点之上,青云科技将紧跟国家政策指引,立足自身技术、产品等优势能力不断探索,为企业数字化走深向实和价值创造筑牢数字基石,进而共同为我国数字经济高质量发展增添动力。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。