日前,神州控股旗下智慧神州参与编制的《GB/T 36333-2018 智慧城市 顶层设计指南》、《智慧城市 领域知识模型 核心概念模型》(GB/T 36332-2018)国家标准,已由国家标准化管理委员会在《中华人民共和国国家标准公告》(2018年第9号)中予以批准发布,并将于2019年1月1日正式开始实施。
这是自2017年10月,神州控股旗下智慧神州作为核心参编单位,参与制定的(GB/T 34678-2017《智慧城市 技术参考模型》、GB/T 34680.1-2017《智慧城市评价模型及基础评价指标体系 第1部分:总体框架及分项评价指标制定的要求》、GB/T 34680.3-2017《智慧城市评价模型及基础评价指标体系 第3部分:信息资源》)三项标准正式发布以来,中国智慧城市专家——神州控股在智慧城市国家标准方面取得的又一硕果!
标准作为规范性的文件,对于技术、产品的规范,以及建设成果的科学论证和应用实践起到非常重要的作用,是引领城市智慧化建设与发展的重要抓手。
神州控股董事局主席郭为认为,“作为中国智慧城市理念的率先提出者和智慧城市建设的积极实践者,尽管在智慧城市建设领域取得了一些成绩,但神州控股意识到,城市的建设仅仅靠技术是远远不够的,必须依靠标准作为支撑。”
据郭为透露,神州控股从2011年始就积极投身于国家级智慧城市标准的工作中,公司将在智慧城市领域的一些实践经验反馈到标准的制定中,同时,参与智慧城市评价标准的制定和完善,是智慧城市国家标准的率先策划者,同时旗下子公司智慧神州作为全国信息技术标准化技术委员会SOA分技术委员会智慧城市标准工作组组长单位,参与了智慧城市标准最核心部分的制定,提供了业内最多的参考案例,并且于2017年正式成为国家标准总体组成员单位。
不仅如此,神州控股还曾代表中国积极参与国际标准化组织ISO/IEC JTC 1/WG11的相关工作,在国家标准化管理委员会、国家智慧城市标准化总体组领导下,积极推动国际上首批立项的《智慧城市 参考框架》、《智慧城市 ICT评价指标》两项国际标准制定。
除参与国家标准研制,神州控股还在积极协助国家标准委,开展智慧城市相关标准在城市的应用落地,提升自身产品研发和地方智慧城市建设成效。
截止目前,神州控股已经将30余家智慧城市的建设经验成功在《智慧城市 技术参考模型》、《智慧城市评价模型及基础评价指标体系 第1部分:总体框架及分项评价指标制定的要求》以及《智慧城市评价模型及基础评价指标体系 第3部分:信息资源》等国家级标准中进行体现。
神州控股将经验化为标准编纂条款,推荐城市参加标准的验证,将产品与标准相结合,形成了一条技术、产品、应用验证一条龙的标准参与主线。智慧城市产品和服务覆盖全国120多个城市、1亿多人口,不断引领着智慧城市的建设和发展。
对于未来智慧城市建设,郭为在接受采访时表示,大数据、云计算和人工智能等前沿技术的发展,使得我们可以快速地为城市建构起全方位的数字化体系结构,神州控股基于与燕云DaaS这一自主创新的大数据技术,把打破信息孤岛,搭建城市级大数据平台从理念变为实践,还将大数据与生产生活的方方面面深度融合,解决医疗、交通、能源供给和社会保障等一系列问题,增强民众获得感的同时,催生一系列产业,为社会经济的持续繁荣赋予新动能。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。