如今,绿色低碳的可持续发展已经成为全球共识,但是整个ICT行业是能源消耗大户,特别是数据中心和5G网络的能源消耗在持续增加,。
目前,信息与通信技术(ICT)行业用电量占全球总用电量7%以上,到2030年,该占比预计将达到13%。到2025年,RAN(无线接入网)将消耗电信公司大约55%的电力。
随着能源消耗情况日益严峻,我们必须采取行动来解决整个问题,ICT行业开始真正关注虚拟化和硬件效率,以求实现更少的碳排放和能源使用。
VMware高级副总裁兼首席执行官Kit Colbert告诉记者,VMware拥有全线的产品,通过整合提高利用率、自动化注入更多的智能,比如借助机器学习技术达成节能减排的目标。
VMware使用数据构建模型,识别机器上闲置的“僵尸进程”。这些进程无益于计算,但却在消耗不必要的能源,增加了数据中心的碳足迹。我们可以通过AI自动决策,将这些进程整合到少量机器上,节约能源消耗。VMware的虚拟化技术在这个过程中发挥了关键作用。
面对能源挑战,VMware进行了持续技术创新,比如在私有云领域,通过虚拟化技术削减能源的消耗量,实现节能减排。在过去二十多年中,VMware帮助客户削减了大概12亿吨的碳排放,它约等于25亿兆瓦的能源消耗量。
一个公司采用虚拟化技术的数量与其数据中心运营的可持续性之间有直接关系。VMware通过整合服务器,在其他行业的能源消耗持续增加的情况下,使世界数据中心的电力消耗量维持不变。
其实在计算行业,VMware产业链各个环节进行合作,既包括硬件厂商,也包括软件厂商。例如VMware和数据中心、运营商,以及本土合作伙伴,甚至芯片级的厂商,都进行了合作。
VMware、英特尔和Quarkdata(云创远景)合作开发了联合解决方案 DeepCooling,以加速推动在中国乃至全球数据中心规模化采用可持续的碳中和计算技术。DeepCooling可持续的碳中和计算技术通过持续的边缘AI干预和实时控制,帮助企业优化数据中心的整套制冷体系的能耗表现。
Kit Colbert表示,ARM芯片架构能够实现比X86更高的能源效率,于是VMware支持ARM芯片,从而实现更高的算力效率。
在公有云方面,我们可以提升能源利用率,应对高密度的工作负载,实现节能减排。在爱尔兰,一家大型工业设备供应商ESB,使用基于AWS公有云上的VMware技术来实现大幅的节能减排,并最大化他们可再生能源的占比。
在电信运营商方面,5G将会极大消耗能源。VMware在开放RAN领域进行创新,例如提高光谱的利用率,因为频谱在消耗能源中比较很大,VMware携手合作伙伴实现创新,能够把性能提升一倍,而能耗降低一半。
在边缘侧,奥迪不断进行自身IT及基础设施的优化,通过使用VMware的技术,他们仅在2021年一年的时间就节约了7万兆瓦的能源,
同时,VMware携手合作伙伴共同启动零碳承诺计划(VMware Zero Carbon Committed),将VMware客户与云服务提供商联系起来,帮助他们实现可持续发展和供应链脱碳目标。目标是在2030年,VMware实现零碳云。
参加该计划的云服务提供商,将与VMware一样,承诺用100%可再生能源为其数据中心供电,或在2030年之前实现碳中和。同时,上述服务提供商通过了VMware的云计算认证,将使用完整的VMware云基础架构为其客户提供云计算服务。
众所周知,VMware面向合作伙伴推出了VMware Partner Connect计划,此前这一计划并没有在节能减碳方面给予相关建议和指导,现在启动零碳承诺计划之后,VMware会和作伙伴分享最佳实践和建议,帮助他们实现数据中心的优化,以及鼓励他们更多使用可再生能源,从而推动零碳云计划的实施。目前已经有众多的VMware的合作伙伴签约加入此计划。
Kit Colbert说,成本问题是阻碍客户迈向可持续发展的重要挑战,而零碳承诺计划可以极大帮客户降低整个技术平台迁移的成本,同时又实现了零碳的目标。
展望未来,Kit Colbert表示,ICT行业节能减排需要从横向和纵向两个维度进行切入,横向是指跨行业的通用技术以实现节能减排,纵向是指针对不同的行业提供独一无二的技术方案。
VMware聚焦以下领域致力于创新,实现能源的消耗降低。第一个领域是服务器和存储设备等基础设施方面,通过整合来实现节能的目标。第二大领域是在混合云以及由可再生能源驱动的云中实现节能。第三个领域是电信运营商RAN,通过优化实现节能目标。“我们持续地进行具有前瞻性的创新,联手合作伙伴共同为节能进行努力。”Kit Colbert最后说。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。