至顶网服务器频道 : 中科软科技,一家典型的技术型IT方案商。左春,中科软科技股份有限公司(简称中科软科技)总裁,采访左春需紧跟其思维跨度,话题从浪潮延伸至汽车和手机,从传统系统集成扩展至IT方案商未来的发展模型。
系统集成是否还有出路
话题从系统集成开始,更准确地说是传统系统集成。“2013年,中科软科技开始与浪潮建立稳定合作关系,但初期仅限于传统系统集成。”左春说:“系统集成就是将IT企业开发端的技术能力落地实现在用户现场端。”
看似朴素的道理,其实左春是在阐述一个更合理的业务模型,“在本土IT企业中,浪潮较早实现了思维转变,将IT方案商推向业务最前端,自身聚焦在产品技术研发,为合作伙伴提供有力支持。”
中科软科技股份有限公司总裁 左春
究竟谁来体现差异化
既然采访已经涉及生态体系模式,话题就由此展开。其实服务器、存储生态体系呈明显“倒三角型”。底层体系是CPU、内存、硬盘等配件企业。此类产品虽被称为配件,但在产业链中可从来不处于配角位置,少数几家企业垄断市场,而且入门门槛极高。
中间层是浪潮在内的整机企业,而顶层则是直接面对用户的系统集成商、IT方案商。可以看出,此生态模型中,越是底层企业,数量越少,也相当处于价值和产业利润垄断地位,而顶层则是数以千计IT方案商、数以万计的系统集成商。
对此,左春表示,很多人认为,为用户提供定制化服务是IT方案商的价值和责任,其实,在产业链的中段,即浪潮等产品供应商就应该聚焦差异化、体现差异化。
汽车是很好的参照物
举例说明,汽车按车型分类,可分为单厢、两厢、两厢半、三厢;两座、五座、七座;CDV、MPV、SUV等。以用途更可分为:救护车、消防车、转播车、环卫车、混凝土运输车、罐车等。
“产品供应商也应该参考汽车产业、手机产业的产品体系,聚焦用户具体应用场景,推出差异化产品。而IT方案商更可基于此差异化产品,进一步定制解决方案。”左春说。
当然,对比左春理论,浪潮其实已经有所实践。2015年,浪潮提出“计算+”战略,2016年更是将“计算+”解释为关键计算、智慧计算和科学计算。应该说,此时的浪潮已经明显具备面向应用场景的产品设计思维。
同时,2017年,浪潮发布新一代服务器M5系列产品,其中,NF5288M5服务器即是面向人工智能场景设计,其被称为“AI超级计算机”,而NF5486M5则是超高密度存储服务器,面向视频存储、归档存储等应用场景。
对此思维的变化,左春表示认可:“浪潮价值的变化,也一定会带动产业链价值的重新分配,即浪潮价值的提高,也一定会带动中科软科技价值的提升。”
聚焦联合解决方案
由此可见,在产业链中,只有IT方案商与产品供应商进行更紧密地捆绑合作,才能创造更大的价值。而对此,左春认为,传统系统集成没有出路,集成业务必须与应用捆绑、与服务捆绑、与底层产品捆绑。
其实,近期中科软科技的战略思维已经出现变化。中科软科技精于保险行业,但在政务、交通、医疗、公共卫生等领域也有较强积累。此即是变化的基础,“车险+交通”、“寿险+医疗+公共卫生”均将成为中科软科技的全新服务形态。
对此,左春表示,未来IT服务商、IT方案商的业务定位更像是物业,或称为服务总包商。用户有任何IT问题,只需与总包商这一唯一出口对接。“用户只关注应用价值,而服务集成商则负责基于应用的技术实现。同时,在行业应用整合中,必将出现更多的全新业务应用场景,仅依靠中科软科技,或浪潮都无法满足用户服务需求,双方必须更紧密地进行底层技术型合作,联合完成解决方案研发,才能更好地服务客户。”
了解IPF2018更多详情,请点击访问
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。