香港,2019年1月22日——知名餐饮企业香港美心集团选用IBM Flash Storage以支持其长期数据增长,改善成本效益并满足日益严谨的业务绩效需求。美心集团借助可靠且稳定高效的IBM Flash Storage,令其管理团队可根据实时数据而快速地制定业务决策,从而提升生产力及灵活性。
美心集团也成为香港餐饮业首家采用IBM Flash Storage以实现快闪存储标准化的企业。
美心集团运用数据来监测和优化在中国及亚洲超过1200间分店的运营。分店涵盖中菜、亚洲菜及西菜、快餐、西饼和餐饮服务,以及集团在不同地区经营的知名特许品牌,例如星巴克、元気寿司、一風堂拉面、芝乐坊餐厅和Shake Shack。在线客户关系管理及食品制造也是集团核心业务之一。
美心集团透过数据了解顾客不断变化的需求和行为。基于数据驱动化产生的洞见,美心集团的策略包括提高竞争力、扩大收入来源并提高顾客满意度。目前,集团每日处理超过600000笔交易及数百万条记录,预期未来三年数据将快速增长五倍并达到300TB,因此,不断增长的交易额和数据存储很快就会导致严重的存储瓶颈问题。美心集团希望提高生产力并能更快速地做出业务决策,而更大的数据集可能会降低应用程序和数据存取的性能,因此构成了一项严峻挑战。
经过严谨的挑选后,美心集团确定采用IBM Flash Storage作为存储平台,因为它符合集团数据存储的增长需求,并能提高数据可靠性、简化管理复杂性;IBM Flash Storage还能为接近实时的决策提供强大的平台支持。
美心集团高级信息科技总监马庆和表示:“数据将继续推动香港美心集团未来的成功,随着顾客和市场需求的发展,我们要变得更加积极、灵活。像IBM Flash Storage这样可靠、高性能的存储设备能让我们扩展运营并满足市场需求。更重要的是,它为我们提供了灵活性和自由度,让集团昂然扩展并进入新的市场。”
IBM Flash Storage可支持高达500000每秒读写次数(IOPS)的同时,只占用较小的存储快照空间。受益于可信赖的IBM Enterprise Systems网格规模架构,美心集团在旺季和季节性促销活动中,都能保持着稳定一致的运营表现。例如,中秋节期间,IBM存储解决方案使集团处理交易额和数据存储的高峰时,仍能保持整体运营稳定顺畅。
IBM Flash Storage的新特点包括模式删除、重复数据删除和压缩,通过降低整体拥有成本,以提高存储成本效益,并从一开始就简化成本。凭借高达五倍的数据压缩功能,美心集团得以将成本效益提高50%。异质存储设备虚拟化(heterogenous storage virtualization)功能允许软件定义存储(software-defined storage)轻易进行实时迁移,安全可靠。
IBM存储解决方案提供的独特优势,包括异步和同步复制、使用IBM Hyper-Scale Mobility的无缝数据迁移以及使用IBM Hyper-Scale Manager的统一管理界面,同时令美心集团能够基于实时数据跨多个端点装置部署高级管理仪表板。管理层可以实时了解运营状况,并快速做出准确决策。
IBM香港系统部总经理许旭煦表示:“数据正迅速成为跨行业的业务运营核心,企业需要可靠的存储解决方案,确保稳定一致性能的同时,能应付数据增长问题。IBM Flash Storage旨在满足现代高性能存储要求,令企业可以专注于解决实际业务问题。我们很高兴帮助美心集团应对快节奏餐饮行业面临的挑战,为其未来的进一步发展做好准备。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。