近日, 北京,中国通信标准化协会大数据技术标准推进委员会(CCSA TC601)内存数据库项目组在中国信息通信研究院召开第二次会议。作为中国最大的运营商软件领域产品与服务提供商以及内存数据库的关键行业厂商,亚信科技受邀参会,亚信科技的技术专家与阿里、百度、腾讯、华为等13家国内顶尖技术公司的权威数据库专家齐聚一堂,探讨《内存数据库实践白皮书》的编制,共同推动大数据与实体经济的深度融合。
会上,专家们基于《内存数据库实践白皮书》的大纲初稿展开深入的探讨,亚信科技技术专家针对内存数据库的功能需求和业务痛点发表了独到见解,承担起白皮书编写的部分工作。《内存数据库实践白皮书》从内存数据库的定义、应用场景、选型建议、技术要求、实施方案、维护方案和技术演进趋势等七个层面进行详细阐述,使更多的企业和用户得到专业的数据库服务选型建议。该白皮书预计在今年6月4日的2019大数据产业峰会上进行发布。
亚信科技承担了《内存数据库实践白皮书》中内存数据库的核心属性、数据库选型建议、技术要求以及维护方案等关键内容的编写工作。
近年来,电商、电信、金融、社交等各行各业对高性能数据库的需求日益加深;随着人工智能物联网(IoT)的快速发展和5G技术商用的到来,使得企业IT系统对于大并发、高响应的要求越来越高。
“数据驱动企业创造价值的今天,传统基于磁盘的关系数据库已无法满足企业对系统高性能、实时、准实时数据访问的要求,而all in memory的内存数据库在性能方面具有先天的优势。同时,随着服务器内存容量的增大、内存硬件成本的降低,基于磁盘的数据库必将逐步迁移至内存数据库,因此建设新一代分布式关系型内存数据库势在必行。”亚信科技技术专家曹升东这样说。
作为一种新兴的数据库类型,内存数据库目前还没有达到传统数据库那么成熟的水平,因此需要投入大量的时间进行研究、探索,才能实现大规模应用。亚信科技的技术专家将与项目组的其它成员一起努力,共同对产品进行规范,完善技术要求,建立测试基准,为打造内存数据库产品在中国的发展形态和良好生态贡献力量,推进内存数据库技术的长远发展。
亚信科技作为业界公认的软件及相关服务的领军企业,一直致力于为企业客户提供最先进的软件服务与技术,在内存数据库领域已有近20年的研发与使用经验,目前,亚信科技的内存数据库产品已被国内外运营商广泛使用,并且在关系型内存数据库领域处于领先地位。
基于多年来在分布式内存数据库领域积累的研发与使用经验,亚信科技打造了一款高可用、高性能的分布式关系型内存数据库AISWare MDB(Memory Database),为企业提供基于SQL的数据访问服务以及可插拔的扩展服务,满足未来对高速读写要求,服务于需求不断升级的数字业务市场。
AISWare MDB是一款通用的、企业级分布式关系型内存数据库,采用多种关键技术来保证系统的超高性能、高可用与可扩展,适用于高吞吐、低延迟的联机事务处理 (OLTP)类应用。AISWare MDB兼容MySQL协议,可复用MySQL外围的监控、客户端、数据迁移等工具,生态圈成熟,学习成本低; 为应用开发人员提供丰富的开发语言支持,包括 C、C++、Java、Python等,便于开发;为数据库运维人员提供丰富的调试工具与命令行,运维方便。
AISWare MDB具有超过99.99%的高可用性,具有极高的容错能力,并能自我修复,可以跨机房串行复制N个数据副本,实例故障转移用时通常不超过10秒。除了满足运营商企业对数据的存取需求外,AISWare MDB还可以应用在各种有需求的电商、游戏、金融领域、传统中小企业以及互联网行业等。此外,亚信科技还提供专家服务,便于客户更有效、更顺利地安装、使用AISWare MDB。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。