2020年12月29-30日,中国电子技术标准化研究院举办的“第十届中国云计算标准和应用大会”在北京举办,来自政府管理机构、开源社区、行业领先企业的权威专家齐聚一堂,围绕我国云计算标准、技术和产业发展的新模式、新业态、新场景以及成效经验等话题进行了深入探讨交流。
曙光云受邀参加本次大会,并凭借安全可信城市云在云计算技术创新、业务实践及用户赋能等方面的杰出贡献,荣获大会“2020年云计算最佳实践奖”。
据悉,曙光安全可信城市云作为行业内首个“全国产云”,全面兼容各类主流架构国产处理器,具备从底层处理器到上层应用的完整技术产品栈,具有安全可信、全栈服务、无忧交付、生态丰富4大核心特点。截至目前,曙光安全可信城市云已在天津、无锡、成都、抚州等政务云平台应用实践。已为政府多个部门提供了全国产的政务外网和互联网端的计算、存储、安全等云服务资源,加速了政务数字化进程,树立了政务云新典范。
实践中诠释曙光云“S.A.F.E.”价值
曙光云计算产品架构负责人在大会上发表了《曙光安全可信城市云应用实践》的主题演讲,其表示,在“新基建”背景下“数字新基建”格局正在形成,城市稳定运行需要安全可信的云基础设施,曙光安全可信城市云正在以城市云计算中心为基础,构建支撑城市信息化建设及数字产业发展的安全可信云基础设施。曙光安全可信城市云基于国产微处理器构建智能云管平台,可为用户提供安全稳定的运营管理体系、丰富成熟的应用生态环境、无须二次开发即可平滑上云的体验。
该负责人表示,曙光安全可信城市云具备“S.A.F.E.”四大优势,即安全可靠(Security)、完整全面的云产品栈(All-Stack)、高效无忧的迁移交付(Fast Delivery)、丰富成熟的应用生态(Eco-System)。而“S.A.F.E.”不仅是曙光安全可信城市云的优势呈现形式,也是曙光云的产品及品牌理念,更代表着曙光云带给用户的四大核心价值。
曙光安全可信城市云正在应用实践中诠释其“S.A.F.E.”的价值。据悉,目前已经升级为曙光安全可信城市云的政务云平台,均采用基于国产安全可信微处理器,可构建从基础设施、操作系统、数据库、中间件到应用软件的全国产云技术架构,并符合国家权威机构认证评估要求及标准,这体现的便是曙光安全可信城市云安全可靠(Security)。
用户在使用曙光安全可信城市云的过程中,无需进行深度优化和二次开发,即可实现平滑迁移上云,并在使用过程中曙光安全可信城市云为用户提供了安心的供应链保障、全场景覆盖的解决方案和管家式服务,使用户真正体验到即建即用、无缝迁移的“全国产云”。这便是曙光安全可信城市云高效无忧迁移交付(Fast Delivery)的体现。
曙光安全可信城市云在用户的使用过程中,凭借出色的技术供给能力和出色的兼容性,可满足用户对基础设施(IaaS)、平台层(PaaS)的所有需求,并可以支撑应用层(SaaS)的各类场景应用需求。这便可以视为曙光安全可信城市云完整全面的云产品栈(All-Stack)和丰富成熟的应用生态(Eco-System)的呈现。
云计算最佳实践的延续
安全可信城市云作为曙光云对云计算的一种实践形式,以解决用户上云、用云的痛点为目标,始终秉承“S.A.F.E.”理念,致力于引领我国云计算产业积极向着安全可信、无忧交付、生态繁荣发展。
曙光云将持续携手生态合作伙伴一道,面向国民经济发展主战场,为百行百业的数字化转型与创新发展提供有力支撑。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。