近日,迪思杰(北京)数据管理技术有限公司(以下简称“迪思杰”)携十几年研发和打磨的高性能复制产品SuperSync(大型数据库高性能复制平台)入驻华为云严选商城,以此让SuperSync的能力辐射到更多客户。
随着IT信息技术产业升级,企业想要获得长期稳定的发展,数字化转型就要提上日程,而数据的质量则是企业数字化是否成功的基础因素之一。想要提升数据质量,唤醒数据价值,就必须将数据治理和数据安全两手抓,打通数据与业务之间的壁垒,实现数据与业务之间的高效联通、实时响应。
迪思杰推出的SuperSync异构多源数据复制解决方案,具备多源异构、实时复制、占用资源小、部署灵活以及操作便捷等特点,实现了低干扰、不停机实时数据复制,是数据库生态中重要的产品。该产品适用于市场上绝大多数数据库、RDS及GaussDB的实时双向数据复制,如国外主流商业版数据库(Oracle/DB2/Sybase/informix/SQL Server等)、国产数据库(GaussDB/达梦/人大金仓/Oceanbase/TDSQL/TiDB等)、开源数据库、大数据及各类文件等,并且得到了国内1000多家高端客户的认可,目前在线运行系统超过10万+套。同时,迪思杰通过位于北京、成都和西安三个地方的研发中心,具备快速研发迭代的能力,能够在短时间内匹配客户对于各种数据库之间实时同步和交换的需求,进行定制化的研发,目前也是国内厂商中唯一支持AS400环境下DB2数据库实时同步的软件厂商。
为了更好服务客户,迪思杰牵手华为云联合打造了一款高性能、高可用、高安全的数据解决方案。迪思杰利用SuperSync技术与华为云GaussDB数据库结合,开发了GaussDB数据库所需要的异构多源复制业务场景需求,如支持主流的国内外数据库向GaussDB数据库的异构数据迁移和异构复制,支持GaussDB向各种主流的国内外数据库和大数据平台组件进行实时和定时复制等,满足各种企业级数据交换场景。该联合解决方案基于数据库日志的企业级复制技术与GaussDB开放生态、高性能等优势互补,实现数据的实时同步和满足信创需求;通过一体化数据中台对接GaussDB,实现了智能数据资产探测、迁移与治理一体化等能力,让数据库迁移和管理变得更简单高效。
该联合解决方案已在国内保险、银行等不同类型客户成功实施,并取得了积极的技术效果。尤其在某国有大型银行的测试和运行中,提供了数据异构迁移、实时数据复制、数据一致性等能力保障,为项目的成功交付起到了助推的作用。与此同时,迪思杰通过遍布全国各省会中心城市的本地化服务网络,为华为云GaussDB用户提供更快速、更高效的本地化服务体验。
未来,华为云将利用自身平台和品牌影响力以及全行业资源,进一步促进合作伙伴实现业务增长,助力交易提升。同时,华为云严选商城坚持“优中选优,精中选精”的理念,为客户挑选极致的云上应用,让客户切实感受便利的云上购买体验。
目前,迪思杰SuperSync产品和联合解决方案已在华为云严选商城上架,欢迎大家体验。
华为将于2021年9月23-25日在上海世博中心&世博展览馆举办华为全联接2021,以“深耕数字化”为主题,汇聚业界思想领袖、商业精英、技术大咖、先锋企业、生态伙伴、应用服务商以及开发者等各方,探讨如何深入行业场景,把数字技术与行业知识深度结合,真正融入政企的主业务流程,解决核心业务问题,催生体验提升、效率提升以及模式创新;并发布场景化的产品与解决方案,分享客户伙伴的最新成果与实践,构筑开放共赢的健康生态。了解更多信息,请访问华为官网。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。