11月17日,由中国信息通信研究院(信通院)指导,云计算开源产业联盟(OSCAR)主办的“中国混合云标杆案例暨寻找2017中国混合云十大用户”评选结果揭晓。其中,ZStack获奖案例最多,包括东方明珠新媒体股份有限公司的“东方明珠混合云”、拉扎斯网络科技(上海)有限公司的“饿了么混合云”、北京农信互联科技有限公司的“农信互联混合云”。
2017年是混合云业务爆发的一年。据信通院调查统计,2016年我国企业采用混合云比例为11.8%。RightScale调查报告显示,采用混合云的企业较2015年上升了9%。据IDC预测,未来混合云将占据整个云市场份额的67%。种种迹象表明,混合云正被越来越多的企业所采纳,甚至对于大多数企业而言,混合云似乎成为最优的云战略。
信通院作为工业和信息化部直属科研事业单位,致力于为云计算、大数据、互联网行业等行业发展的重大战略、规划、政策、标准和测试认证等提供支撑。尤其是作为云计算行业可信云认证的主管单位,面对混合云市场的爆发,信通院适时启动了此次“中国混合云标杆案例暨寻找2017中国混合云十大用户”活动,有力推进了中国云计算产业的蓬勃发展。
此次活动由OSCAR主办,IT168承办。活动自9月22号启动以来,汇聚了众多用户案例。主办方本着“公平、公正、公开”的原则,以专区形式展示混合云行业重点案例,并以专家评选、行业用户和云计算产业人员共同参与投票的方式,最终评选出了“2017年度混合云10大用户及案例”。“东方明珠”以总票数10981票的成绩位居“2017年度混合云10大用户”榜首。
作为此次获奖案例最多的云服务商,ZStack致力于产品化的创新开源云计算服务,早在2017年初就在业内率先提出“无缝混合云”、“混合云连接一切IT”的创新理念。这一理念不仅贯穿在其参与的全年阿里云栖大会的所有分站活动,而且在8月份重磅召开混合云产品发布会,宣布与阿里云战略融合。值得一提的是,在云栖大会杭州站“寻找混合云生态·闪亮之星”的活动中,业内30多家云计算服务商不约而同地表达了对混合云发展趋势的认同,以及对与ZStack“无缝混合云”合作的信心和愿景。
此次“中国混合云标杆案例暨寻找2017中国混合云十大用户”活动中,ZStack联合业内伙伴共同服务的“东方明珠”、“农信互联”、“饿了么”三大用户案例经过专家审议、大众投票,分别以第一、四、七的傲人成绩荣获“2017年度混合云10大用户”的荣誉,无论获奖数量还是质量,ZStack都当仁不让。
东方明珠、农信互联、饿了么,都是业务发展极快、实力很强的综合型公司,对稳定性、扩展性、维护性等方面的要求极高,在云计算这种新技术方案的选择上他们的要求非常严格。其中:
东方明珠借助ZStack可与任何公有云混合、亲和性好、灵活性大等特性,搭建了3种公有云(亚马逊AWS/微软Azure/腾讯)和自建私有云(ZStack/Vmware)的混合云平台,承载了其直播类服务、媒资处理类服务、关键数据和内容的分发与归档等业务。
农信互联,借助“阿里云+ZStack”的混合云平台,独自探索出一条符合传统农业的“互联网+”之路。通过混合云的灾备,实现了数据的异地容灾和灾难恢复,保证了在自有机房出现意外的情况下,业务的连续性。
饿了么混合云平台,利用ZStack一键部署、全异步无锁架构、无状态服务、开源全API化等特点,快速建立自动化、标准化运维体系。同时根据订餐行业高峰时段明显的特点,采取“阿里云+ZStack”的混合云模式,使得业务在私有云和公有云ECS之间灵活切换,帮助其在高峰期快速部署服务器资源。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。