浪潮信息在智算能力、数据处理能力以及智算全栈产品等方面不断深耕,为客户实现智慧化升级提供更强的动力。依托元脑生态平台,我们将同心聚力,致力加快推动数字经济与实体经济融合。——北京德康世纪科技有限公司总经理李国伟
北京德康世纪科技有限公司(简称德康世纪)成立于2004年,是一家致力于IT产品的分销、直销、咨询服务以及提供服务器、存储解决方案、产品代理、售后服务的高科技公司。凭借高质量的产品、专业的技术和优质的服务,取得了业界的肯定和一系列荣誉,并与用户建立了广泛的合作关系。
客户需求带动多线产品及方案合作
德康世纪总经理李国伟告诉记者,公司一直深耕IT行业,2015年与浪潮信息展开合作,从第一年的1000多万的服务器销量,增长到2021年完成2亿分销,并3个季度提前达成年度备货任务和渠道全年任务,其中AI产品达成2000万。

德康世纪总经理李国伟
能够取得这样的成绩,李国伟认为一方面是浪潮信息的产品满足了市场需求,同时浪潮信息的品牌影响力不断提升;另一方面是得益于浪潮信息在多元化产品线上的政策支持,以及双方团队紧密配合。在这一过程中,德康世纪的技术能力和业务素养都得到了提升,自身成长非常快。
经过这些年的发展,德康世纪从单一代理浪潮信息服务器产品,扩展到存储、交换机、超融合、云、数据库、小型机等多系列产品,双方的合作也从产品供货关系发展为方案型的合作。
李国伟表示,德康世纪与浪潮信息合作产品线的增加是客户需求驱动的,在IT建设中,客户往往需要整体的方案规划,产品维度的丰富增加了客户的粘合度,也能够符合客户更多的需求。
元脑生态聚合资源应对产业AI化挑战
随着合作产品的不断丰富,对于人员的技术能力和资金投入也提出了新要求,浪潮信息也针对相应人员进行了技术赋能培训,同时也在供应链、商务等方面对德康世纪进行了支持。
李国伟介绍,公司服务团队拥有超过18年的客户服务经验,先后为金融、电信、政府、铁路、建筑、石化、电力、医疗、商业和教育行业等众多用户提供各种IT解决方案,在浪潮信息帮助下,团队能够为用户提供系统咨询、方案设计、软件研发、技术培训、系统集成及相关产品销售等多种服务。
人工智能产业快速发展,AI算力需求飞速扩大。为应对产业AI化的挑战、加速产业AI化的发展进程,浪潮信息提出了元脑生态计划。
对此,李国伟说,浪潮元脑生态深度融合了产业链当中的优秀资源,实现产业融合和产业升级,有利于推动产品线的销售及提升品牌拉动力,德康世纪也受益良多。左右手伙伴与浪潮信息一起推动产业升级。
智慧算力是数实相融时代的重要资产
3月17日,IPF 2022浪潮信息生态伙伴大会将在线上召开,本次大会以“智算创见·数实相融” 为主题,将围绕浪潮信息智慧计算战略、趋势洞察及前沿技术实践深入展开。
李国伟表示,智慧算力是数实相融时代的重要资产,智慧计算是数实相融的底层基础。创是创新,见是发现。从自动化到数字化、智慧化,真正把数字技术应用到实体经济,推动智慧计算在传统行业的应用,用智慧计算发现传统领域的新机会、新模式,实现社会生产、个人生活、社会治理等各个方面的智慧化转变和升级,未来将催生巨大的商业市场机会,迸发出强大的产业生命力。
展望未来,德康世纪将与浪潮信息、用户、合作伙伴等聚焦优势方案的整合和应用,形成更多的方案型销售,而元脑生态将会发挥更多作用。
“接下来,我们会与浪潮信息在AI、存储等多个领域展开更多合作,拓展医疗、交通、制造等行业,为推动国家信息产业化建设贡献出自己的力量!”李国伟最后说。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。