5月25~29日,为期5天的以“大数据开启智能时代”为主题的2016中国大数据产业峰会暨中国电子商务创新发展峰会(以下简称数博会)在贵阳盛大举行。中国工程院院士、浪潮集团执行总裁王恩东应邀参会,并在“中国信息系统集成发展论坛”作《融合架构引领云数据中心》的主题演讲。王恩东在会上表示,全球正迎来以云计算、大数据、深度学习等为依托的智慧计算时代,智慧计算将全面驱动数据价值的实现。
伴随可穿戴设备、智能终端、传感器等的广泛应用,全球正朝着信息化、智能化的趋势发展,由此带来了爆炸性的数据量,举例来看,连锁超市每天通过RFID产生10亿条消费记录,北京市的监控摄像头已经超过四十万个,每年产生500PB视频数据,iwatch每月新增計步、睡眠、心跳等人体数据7.4PB,此外,当前比较火热的VR,可以在观看足球比赛时沉浸入画面里面,让人具有身临其境的感觉,这就会产生大量的数据,数据显示,2020年全球数据量将达到35ZB,这就为数据的存储和计算带来了巨大的需求。
智慧计算为“数在转,云在算”提供计算支撑
李克强总理出席数博会时强调,大数据是钻石矿,而80%信息资源掌握在政府部门手中,政府要打破“信息孤岛”和“数据烟囱”推动数据共享,除隐私外,其它信息都应该向公众和社会开放,形成“人在干,数在转,云在算”的局面。
中国工程院院士、浪潮集团执行总裁王恩东
王恩东认为,从技术的角度看这一切需要智慧计算提供支撑。所谓智慧计算,应当是云计算作为计算、存储等资源的基础平台,大数据及大数据技术作为知识共享、价值挖掘的认知方法,而围绕深度学习的芯片、算法则成为智慧计算的基本工具。未来10年,智慧计算将成为IT投入的热点和重点,其规模占比预计在2025年有望超过2/3,引领计算的发展方向。
在王恩东看来,通过传感器和信息的传递,更多的新型智慧计算形式将更快的渗透到人们的日常生活,例如物联网、无人汽车,神经网络芯片,虚拟现实等,智慧计算将成为整个社会智能化发展的驱动力。
智慧计算时代,数据中心将走向融合架构
可以预见到,智慧计算时代,前端计算将朝着便携化、轻量化和泛在化发展,通过物联网将各种数据持续不断的向后端传输,同时,数据来源多样性、格式的复杂性和语义的不确定性使得后端计算量越来越大,后端数据中心会进一步走向集中化、规模化,越来越多的大规模数据中心会出现。数据显示,预计到2020年,将出现50万台容量的单一数据中心,5000台以上的数据中心服务器的数量将达到整个服务器保有量的近70%。
超大型数据中心的出现,对数据中心性能、效率、能耗等提出严峻挑战,传统数据中心必须进行各层面技术的创新与数据中心架构的变革,浪潮将这种适应未来需求的全新的数据中心架构定义为融合架构。
王恩东认为,智慧计算时代的数据中心将向融合架构演进,在硬件层将计算、存储、网络等各种设备中的同类资源整合为资源池,不同设备之间的同类资源能够任意重组,在软件层动态感知业务的资源需求,利用硬件重组的能力,智能的动态分配和组合资源,满足各类应用的需求。
据悉,2016年浪潮将持续深化计算+战略,全力发展融合架构2.0和生态2.0,加快硬件重构与软件定义的深度融合,促进云计算生态的建设,构建未来竞争力。
在前不久举行的浪潮服务器存储合作伙伴大会上(IPF2016),浪潮推出两款融合架构2.0新品——InCloudRack云一体机和大数据一体机。其中,InCloudRack云一体机面向企业私有云设计,以一体化网络引擎UNE构建了分布式网络,并通过软件定义的方式实现了柜内计算、存储和网络资源的集中池化、统一调度和统一管理。而大数据一体机则面向海量数据处理,是经过深度优化、开箱即用的融合大数据基础设施,提供GB到PB级海量数据的采集、存储、处理、挖掘洞察能力。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。