7月29日,“2020可信云大会”如期而至,以线上会展、云端对话等全新形式,打造云端交流平台,给线上观众带来了一场场精彩纷呈的行业盛宴。作为云计算领域的代表企业,紫光旗下新华三集团受邀参与“2020可信云线上峰会”,并在7月30日下午的新华三专场重磅发布了面向未来企业数据中心的下一代超融合创新架构UIS 7.0和ONEStor新一代分布式云存储一体机。
与此同时,作为紫光云与智能事业群成立以来的又一次重磅亮相,紫光云在此次大会上荣膺“可信云技术最佳实践奖-微服务”和“可信云技术最佳实践奖-内核”双项大奖,再度彰显紫光集团在云平台建设及基础服务领域的领先实力。其中,新华三集团基于H3C CloudOS的微服务一举拿下“可信云技术最佳实践奖-微服务”,展现了领先的技术实力与服务能力。
作为近年来火热的云计算基础架构概念,超融合架构经历多年的技术发展,正逐步迈入规模落地阶段,并广泛应用于数据中心核心业务的承载。与此同时,随着新基建浪潮的来临,数据量爆发式增长,企业数字化转型也给数据中心带来了一系列新挑战。
在此背景下,新华三推出了面向未来企业数据中心的下一代超融合创新架构——UIS 7.0,打造业界首款中心边缘统一架构的超融合平台,也是首款实现前后端整体加速、首款融合云原生能力的超融合,在云原生引擎、智能边缘云引擎、百变金刚引擎、混合云引擎、智能边缘云引擎五大核心引擎辅助下,将ABC(AI,Big Data,Cloud)能力赋予边缘,为各行各业的企业级用户带来极致融合、极简规模、极宽场景、极优交付的全新体验。
值得一提的是,UIS 7.0可同时适用于数据中心、边缘与分支机构、混合云等多种场景,实现数据从收集、分析、训练到决策的全流程智能,为客户提供可以智能加速、极致性能、无损网络、全域形态、云边协同的云基础架构,满足企业未来十年的技术架构变革,助力广大企业进一步掌握数据命脉,加速实现数字化转型。
与此同时,新华三还发布了另一大利器——ONEStor新一代云存储一体机,实现对新华三软件定义存储产品形态的全新补充。此次ONEStor新一代云存储一体机具备EB级别海量存储空间、智能修复、弹性扩展等特性,实现一套存储,多种平台,全行业场景的深度融合。首期发布的产品系列包含K3、K5和K7三个型号,满足客户多样性的应用场景需求。
体验上,新一代ONEStor一体机可为广大客户提供“简、融、省”的畅快体验。不仅能开箱即用、一键部署,还可提供可视化的管理运维,简单易操作。同时,通过深度融合软硬件管理,将先进的CPU、固态硬盘、网络技术深度融合到一体机产品中,带给客户全新的使用体验。此外,一体化模式还能帮助客户节省采购周期,缩短业务上线及故障修复时间,进一步提高效率。
当下,伴随着新基建的推进,云计算正不断加深与各行各业的深度融合,成为了参与和推动数字化转型的重要力量。新华三集团作为紫光云与智能事业群的重要一员,专注为紫光云构建统一的云、大数据、人工智能等底层通用技术体系,选择在可信云大会发布UIS 7.0与ONEStor一体机,不仅是其在云计算领域的又一次突破升级,也将有效增强紫光云的技术和服务能力,支撑各大企业的云平台建设,帮助企业数字资产高枕无忧。
未来,新华三将持续践行“数字大脑计划2020”,以云为智能为核心引擎,聚焦客户需求,与时俱进,持续创新,构筑更坚实的基础数据服务平台,助力新基建。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。