芬兰首都赫尔辛基运行着全球时间最长的数字孪生项目之一。过去三十年中,芬兰赫尔辛基逐步采用计算机辅助设计(CAD)、3D城市地图、以及后来的全尺寸数字孪生,并在此过程中尝试了很多想法,其中一些想法为芬兰赫尔辛基的公民、组织和当地企业带来了真正的好处。
Jarmo Suomisto于1998年加入赫尔辛基的规划部门,当时很多项目正在几步阶段,他从2014年开始负责Helsinki 3D+项目,以协调全市范围的数字孪生计划。
他说:“30年前,数字城市是一个伟大的理想主义梦想,现在,这个愿景已经接近于实现了。”
赫尔辛基市的数字孪生渲染
现在,赫尔辛基使用数字孪生来减少碳排放、改善城市服务、促进创新增长。
原型
赫尔辛基的数字孪生之旅始于20世纪80年代初期的城市建筑竞赛,建筑设计师的黑白线条图需要十二个小时才能渲染完成。从那时起,流程和技术一直不断演进发展。
“我们现在的3D渲染速度达到了每秒60帧,有完整的阴影和反射,”Suomisto说。
2000年,Suomisto与一个团队合作,在一个特殊的Bentley微站上以3D CAD的形式展示了整个赫尔辛基市。该团队还在城市规划演示的过程中,通过四个大型计算机引擎和三个投影仪上展现了赫尔辛基的实时计算机模拟,这种技术突显了赫尔辛基中心地区对新开发项目的需求,包括新建的图书馆、音乐厅、公园和商业开发项目。
赫尔辛基市的数字孪生进化时间表
“有很多建筑方面的竞赛,我们想展现这个地区的未来,”Suomisto说。
展示持续了一个月的时间,人们可以俯瞰整个区域。当时,老年人不玩电脑游戏,他们以为这是一部电影,后来他们发现可以使用鼠标操纵。后来,赫尔辛基市继续模拟技术来指导城市规划。
网格发挥效用
2015年,他们发布了Helsinki 3D+,开始利用新的工具获取和构建逼真的3D实景网格,将城市地理标记语言(CTGML)用于语义数据。
“这是两种互补性的技术,使用不同的生产工艺,我们通过这两种技术创造价值,”Suomisto说。
Reality Mesh汇集数据,通过各种游戏引擎渲染城市,包括Unreal Engine、Unity Engine和Minecraft。Bentley的软件已经把5万多张飞机侦察图像转换为精度为10厘米的实景网格模型。第一个完整的模型花了大约一个月的时间。
相比之下,CityGML适用于分析与建筑物、道路、基础设施和植被相关的数据,他们把来自各种地图、数据库、以及其他来源的矢量和语义数据组合成一个统一的城市模型。
早期成功
2016年,Suomisto的团队希望向参与资助该计划的决策者展示数据模型的力量。几个月后,他们创建了一个试点项目,其中包含12个与新城市模式相关的项目,其中一半成为永久性项目。
其中,最成功的项目包括关于新住宅开发的交流服务、地下连接地图、以及展示新栽树木的影响,这些都利用了Mesh丰富的视觉图形。而其他专注于数据分析的项目因为太复杂而无法用工具实施。
从那时起,模型的准确性和分辨率有了显着提高,并且在不同的游戏引擎之间有了更好的集成。围绕CTGML的设备生态系统也在不断完善,但这需要更多的专业知识。CTJSON接口也使CTGML数据更容易集成到其他应用中,有利于进一步发展。
打造长期价值
刚刚起步的城市,应该从以市中心为核心的小型项目开始,使用展示数字孪生视觉吸引力的实景网格。从长远来看,Suomisto预计CTGML模型因为可以更深入地了解隐藏在表面之下的数据,所以将在帮助城市实现可持续性和发展目标方面,发挥重要的作用。
其他城市也可以采用,围绕战略目标建立共识。例如,芬兰设定了到2035年实现碳中、到2050年回收所有废物的目标,数字孪生还有助于模拟不同的政策或个人决策将如何影响目标。
例如,赫尔辛基开发了一项服务,该服务使用CityGML数据分析太阳辐射,分析道路、墙壁、门窗更换对碳足迹的潜在影响。居住在赫尔辛基的房主,可以将新保温材料、窗户和热泵的成本与预期的节能和减少二氧化碳排放量进行比较。Suomisto说:“最好的入门方法就是使用实景网格模型,因为你会得到很好的结果,而且视觉上看起来很生动。随着城市领导者了解了这项技术的强大力量,你就可以获得更多资源做更多的事情。几年时间内,你就可以打造出一个很好的模型,运行这个模型,在这个模型上打造整个城市。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。