从单一服务器产品到存储、AI、云、网络全面覆盖,南京创瑞丰与浪潮信息的合作不断升级,并在元脑生态带动下,拥有了智算整体解决方案能力,在业绩快速增长同时自身能力得到不断提升。——南京创瑞丰系统集成有限公司总经理周庆
南京创瑞丰系统集成有限公司(简称“南京创瑞丰”)2004年成立并开始代理浪潮信息服务器,当时公司只有七八个人,经过十几年的发展,业务不断壮大,人员不断增加,年销售额也从一两百万增长到2021年的将近四个亿。
从单一产品走向复合产品合作
这一系列成绩的取得离不开与浪潮信息的紧密合作,南京创瑞丰总经理周庆告诉记者,很长一段时间公司是一条产品线打天下,但是2019年开始市场发生变化,5G、移动支付、人工智能开始频繁出现在客户需求中,客户要的不再是单一产品而是整体解决方案。
南京创瑞丰系统集成有限公司总经理周庆
“我们的项目赢单率持续下降,利润增长愈发艰难,传统靠搬箱子、打价格战,通过资金周转、信息不对称盈利的路子已经走不通了。” 周庆谈到。
在这种情况下客户真正关切的是服务商的多产品能力以及方案的技术价值,而不单单是价格,这坚定了南京创瑞丰将转型进行到底的决心。
众所周知,寻找新方向并不容易,正在南京创瑞丰为此焦虑时,浪潮信息带动、鼓励我们实施战略转型,不仅把服务器业务,还将云、AI等更多增值产品解决方案推向渠道,同时推动合作伙伴的能力转型,从单一服务器产品销售向多产品销售转型,从简单产品销售向方案销售转型,这也是浪潮信息赋能渠道伙伴的重点推进方向。南京创瑞丰借此时机迈出了转型第一步,不光进行浪潮信息的产品分销,还面向行业进行解决方案的合作。
2021年,南京创瑞丰在原有服务器、存储基础上引入网络产品,让产品形成有机的整体方案,并引进专业人才,带动整体销售额实现翻倍增长,存储和网络以不足20%的销售额却带来了50%的利润,通过“小”产品带来“大”收益,这让南京创瑞丰相信分销业务通过转型也能带来高质量增长。
同时,在过去的2021年南京创瑞丰携手浪潮信息,销售额同比去年实现了30%以上的增长,提前一个季度完成了服务器备货任务,并与浪潮信息一起突破苏州超集、连云港方洋等核心合作伙伴,取得了非常大的成绩。
周庆表示,南京创瑞丰是浪潮信息多年的合作伙伴,双方合作包括产品、人员、解决方案、渠道赋能等多个方面。“浪潮信息这几年对公司不同岗位进行了有针对性的专业培训,比如说企业管理、销售技巧、商务合作培训等,各个部门在浪潮信息的支持下都有不同程度的发展。”
推进智算落地,让元脑生态开花结果
周庆表示,浪潮信息对合作伙伴的扶持力度很大并且保持了持续性,脚踏实地不急功近利,这让伙伴非常放心。
“在智慧化升级和产业AI化的背景下,2019年浪潮信息提出了元脑生态计划,我们也抓住这个机会,与业内更多的优秀伙伴合作,在多个行业的客户、ISV中树立了代表性的成功案例,提高了销售的成功率,在科研院所、医疗、教育、企业等领域都取得了好成绩。”
例如,在苏州相城产业技术研究院项目中,南京创瑞丰携手浪潮信息提供了整体解决方案,获得了客户的认可。浪潮信息通过强大的研发体系,可以输出多场景的产品解决方案,为分销商提供更多存储、网络、关键应用、软件等企业级产品;在此基础上,浪潮信息有针对性地帮助合作伙伴进行产品和解决方案方面的技能培训;更重要的是分销商伙伴需要改变观念,从推销产品转变为关注客户需求,为客户实现数字化转型价值。
3月17日,IPF 2022浪潮信息生态伙伴大会将在线上召开,本次大会以“智算创见·数实相融” 为主题,将围绕浪潮信息智慧计算战略、趋势洞察及前沿技术实践深入展开。
对此,周庆表示,外部环境发展复杂多变,挑战与机会并存,期待浪潮信息推出更多针对合作伙伴的赋能举措,南京创瑞丰也在进行业务模式的转型,并将与浪潮信息在智慧计算方面展开更多层面的合作。
“2022年是创瑞丰与浪潮信息合作的第19个年头,双方历经风雨同舟共济,每到关键时刻,真正的伙伴总会带来改变的勇气和创变的力量,转型之路伴随着未知,但只要我们携手向前,前景风光无限!” 周庆谈到。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。