中国北京,2018年1月17日,技术领先的企业级容器云PaaS平台和解决方案提供商时速云宣布完成近亿元B轮融资,目前资金已经全部到账。本轮融资由泰达科技投资领投,原投资方朗玛峰创投、九合创投、众海投资继续跟进。据悉,时速云是国内容器云领域最早完成B轮融资的企业之一。
时速云TenxCloud成立于2014年10月,是新一代容器云计算领域的领军企业,业务涵盖容器云PaaS、微服务治理、DevOps、自动化运维、AIOps等领域。时速云核心团队由来自IBM、VMWare、Oracle、BAT等知名企业的高管和技术专家组成,产品被企业级客户等广泛采用。时速云总部位于中国北京,并设立了上海、广州、武汉等分支机构。
随着容器云市场的深入发展,容器云、PaaS、微服务、Kubernetes、DevOps等迅速火热 。自2015年起,以Docker为代表的容器技术生态主要经历了三大阶段:
时速云的产品主要包括容器云PaaS平台和微服务治理平台。前者是国内首款基于Kuberenetes打造的容器云PaaS平台,涵盖应用管理、交付中心、CI/CD、DevOps、集群管理等功能,帮助客户快速构建云原生应用、支持微服务架构、通过持续集成和持续部署,加速应用迭代。微服务治理平台为微服务框架应用的开发、部署、运行、运维提供支撑能力,提供包括服务注册、API网关(限流、路由策略等)、服务调用链追踪、配置管理、熔断、异常处理等微服务治理能力。
在刚过去的第四季度,时速云实现了千万级的销售业绩。这主要得益于以下两点:
重视产品体验
时速云是全球云原生应用CNCF基金会银牌会员,也是Linux基金会会员。以及开源容器编排技术Kubernetes、容器引擎Docker、分布式存储Ceph等的贡献者。2017年3月,时速云成功加入中国开源云联盟组织以及超融合联盟。 公司拥有多名Kubernetes、Docker等开源技术的源码贡献者,是国内第一家从事Kubernetes研发与应用的公司。时速云基于Kubernetes的PaaS产品在业内拥有良好的口碑效应,团队十分重视用户体验与产品细节。
与行业的深入融合
时速云最早是提供公有云容器服务,在A轮融资完成后,率先推出私有云PaaS产品,并深入金融、能源、运营商等行业,了解客户需求,针对性的给出行业解决方案。由于要实现一套完整的容器云PaaS产品,除了要精通容器技术本身包括Docker、Kubernetes等,还需要熟悉一系列的技术解决方案,包括容器网络、存储、日志监控、安全、微服务等等。其中不是简单的各种技术框架的应用,而是在这些底层系统出现问题的时候,团队能进行源代码级别的分析和解决。而能熟练开发和运维好这样一个平台至少需要几十名研发人员。在企业数字化的转型过程中,时速云PaaS平台针对性的帮助行业客户解决了企业IT面临的困难,赋能企业并创造价值。
时速云主要提高基于Kubernetes的私有云PaaS服务,目前正在积极打造“PaaS+”战略,未来将以PaaS为核心,打造包含微服务、大数据、人工智能、IoT等体系化产品矩阵。时速云将同广大应用服务开发商、SaaS厂商等合作伙伴进行广泛的合作,通过PaaS的快速部署、敏捷运维、弹性扩展的能力,汇聚优质的企业应用,为客户提供更多的价值。
目前时速云的客户主要集中在金融、能源、运营商、制造、教育等领域,标杆客户包括:国家电网、新奥集团、戴姆勒奔驰、链家、慧科集团、铂涛集团等。
本轮融资完成后,时速云将加大研发投入,完善和丰富产品体系,同时扩大市场销售团队,提高销售的区域覆盖能力。未来,时速云将携手广大合作伙伴,为企业数字化转型赋能,并提供优质的PaaS云产品和解决方案。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。