今日,国内休闲食品领先企业良品铺子与IBM宣布双方共同打造的全渠道平台成功上线。自今年初良品铺子与IBM达成合作以来,历经9个多月的共同努力,IBM帮助良品铺子打通前中后台,整合10多个系统,33个线上平台,成功打造“六大中心”即商品中心、价格中心、营销中心、会员中心、订单中心、库存中心。通过整合线上线下渠道,并基于数据分析技术,IBM帮助良品铺子实现全渠道会员管理、创新商品供应链和电商运营管理模式,给消费者带来全新消费体验。
良品铺子董事长杨红春表示:“在‘互联网+’的时代下,零售企业正在努力通过O2O和全渠道发展,实现业务创新和企业转型,以进一步提升消费者购物体验。良品铺子在达成百亿目标的过程中,面临持续交叉出现的规模与创新挑战,需要主动、适时的开展转型升级,突破规模瓶颈,提升经营绩效,支持模式持续创新。此次电商平台的正式上线,实现了企业信息化跨越式发展,为公司全渠道零售服务模式突破与产品价值供应链整合奠定了良好基础。”
整合跨渠道平台,构建消费者一致性体验
良品铺子拥有包含自有B2C商城、第三方电商平台、微信商城,积分商城等30个线上渠道,并且相互独立,数据分散。IBM帮助良品铺子整合了各个线上渠道,企业能通过全渠道的触点获得更多数据,打破数据壁垒,帮助企业获得全新洞察,改造和优化企业效率,同时实现全渠道客户接触点的自由转化,让消费者在各个渠道上获得一致的购物体验。
场景:消费者不管用手机App还是通过天猫等第三方平台登录自己的账户,都能获取一致的购物推荐和折扣体验,同时成为良品铺子的会员后,任意平台的消费都能实现积分共享,让会员能够随时随地按照自己喜欢和方便的方式兑现会员权益。
打造会员360用户视图,提供消费者个性化体验
此次电商平台的上线,IBM帮助良品铺子成功整合分布在不同渠道的用户数据和交易信息,实行统一的会员及数据管理;通过线上线下全渠道1000万会员数据融合,建立统一客户视图;同时基于数据分析获得洞察,实现全渠道会员营销计划统一管理,实现营销事件自动触发机制,初步建立会员生命周期自动化管理。
场景:企业可以整合各渠道的消费者信息和历史购买信息,通过大数据分析构建360度用户视图,将顾客有效地分群,对会员实现标签化管理,实现灵活定价、个性化产品定制和个性化促销,为消费者及会员提供差异化服务。例如针对爱吃辣味零食的90后女生群体和偏好坚果类产品的白领青年群体,良品铺子会推荐不同的搭配零食,以满足不同群体的需求。
实现渠道与库存联动, 敏捷响应消费者需求
良品铺子通过全渠道平台的搭建,从店铺预测、事业部计划、到集团的补货,然后到工业公司的配货,成功打通供应链上下游,确立了电商到集团的库存计划机制实,现从库存-订单-发货-快递-消费者整个过程的管理监控,优化采购,提升内外部供应链体系,降低库存成本促进资金流效率;同时,企业还能对于各个渠道上消费者的订单需求实现快速响应,指导商品的选货、包装以及补货,买卖双方均可随时随地通过移动设备查询货物库存,缓解货物供求矛盾,帮助企业实现敏捷物流配送。
场景:用户不管通过什么渠道下单,订单信息都能实时同步到后台,并自动选择最合适的仓库进行货物运送,如果该仓库缺货,最邻近的仓库也能及时补货,快速响应客户的需求。通过高效的运营平台管理和供应链管理,在企业9周年店庆活动期间,良品铺子成功完成单日销售额超3000万。
IBM大中华区全球企业咨询服务部零售与消费品行业合伙人叶国晖表示:“全渠道是零售业发展的必然方向,对于零售商而言,不仅仅是渠道整合和运营模式的变化,也需要结合大数据重构消费者的体验与互动场景,此次与良品铺子的合作能在这么短的时间内取得如此丰硕的成果令人振奋,为食品零售行业全渠道转型树立标杆。未来,IBM还将以丰富的零售业服务经验和创新技术方案,帮助良品铺子进一步打通线上线下,并持续提升后台支撑能力,帮助良品铺子积极拥抱‘互联网+’时代,实现企业转型变革与加速成长。”
好文章,需要你的鼓励
TAE Technologies在最新一轮投资中获1.5亿美元,累计融资约18亿美元。公司利用 AI 技术优化融合反应堆设计,目标于 2030 年代商业化发电,谷歌等巨头均参与合作。
这项来自KU Leuven、中科大和上海Memory Tensor公司的研究探索了如何利用拼图游戏训练多模态大型语言模型的视觉推理能力。研究发现,现有模型在未经训练时表现近似随机猜测,但通过强化学习能达到近乎完美的准确率并泛化到更复杂的拼图配置。有趣的是,模型能否有效学习与是否包含明确推理过程无关,且复杂推理模式是预先存在而非突然出现的。此外,研究证明强化学习在泛化能力上优于监督微调,挑战了传统的模型训练范式。这些发现不仅揭示了AI视觉理解的机制,还为未来多模态模型研发提供了重要参考。
Nvidia 正在全球数据中心推广 AI 芯片,其最新 Blackwell 架构在 MLPerf 基准测试中获得最高性能,大幅加速下一代 AI 应用的训练与部署。
这项研究提出了LoHoVLA,一种用于长时序实体任务的统一视觉-语言-动作模型,融合了高层任务规划和低层动作控制功能。与传统方法不同,它利用单一预训练视觉语言模型同时生成语言子任务和机器人动作,并采用分层闭环控制机制增强鲁棒性。研究团队构建了包含20个长时序任务的LoHoSet数据集,实验结果显示LoHoVLA在Ravens模拟器中显著优于现有方法,展现出统一架构在实现可泛化实体智能方面的潜力。