Hewlett Packard Enterprise(HPE)公司本周召开了线上Discover大会。与旗下Arube部门上周举办的Atmosphere在线大会类似,本届Discover的主题为“智能边缘”。下面一起来看相关内容。
HPE公司高管们指出,边缘的本质,在于“事物发生的位置”。我对此深表赞同。如今,数据正以极其惊人的速度生成。根据估计,一旦自动驾驶成为现实,联网车辆每天将产生数十TB数据。此外,预计由5G网络加边缘“增压”技术所驱动的新型用例也将在消费者与企业级领域产生类似的数据增长。为此,企业无法单纯依靠云计算资源实现数据的关联、处理与分析,并据此采取行动。换言之,高度集中的云环境需要与高度分布的网络边缘结合起来,从而全面解锁数字化转型的终极形态。将计算资源放置在数据创建点周边不仅能够降低延迟水平,同时也将强化应用程序的响应能力,进而带来新的、更具颠覆性的应用范式。
在为期三天的大会上,HPE公司CEO Antonio Neri与HPE Aruba部门总裁Keerti Melkote都在具体阐述这一优势。Neri先生与Zenuity公司创始人在第一天的在一会议中着力讨论了自动驾驶技术。Zenuity是沃尔沃汽车公司设立的合资企业,致力于开发出能够兼顾安全性与性能表现的自动驾驶与辅助驾驶平台。HPE方面负责提供人工智能、高性能计算以及边缘基础设施,借此助力Zenuity公司的开发与验证工作。
在第二天的议程中,Melkote先生谈到了Aruba在COVID-19疫情中的响应工作。该公司为移动诊所和偏远地区的学校提供Wi-Fi停车场热点以及更加灵活、健壮且安全的平台(包括为远程办公人员提供Aruba远程接入点)。这些用例全部存在于网络边缘位置,也证明了Aruba在这一领域中的强大实力。展望未来,相信在基于位置类服务的帮助下,用户接触行为跟踪与人群密度监控将发挥重要作用,帮助我们在保持社交隔离的同时、促进民众安全返回办公环境。Aruba在几年之前已经收购Merdian公司,并借此建立起强大的合作伙伴与解决方案生态系统,这也再次让我们对Aruba的能力充满信心。
在本周的Discover大会上,HPE公司还发表了重要声明,旨在进一步巩固其在电信行业中的发展势头。为了帮助运营商及服务供应商在5G网络与电信云领域发现新的商业机遇,HPE方面宣布将推出HPE Edge Orchestrator。从宏观层面来看,这套解决方案通过应用目录的形式提供低延迟云服务,帮助运营商为客户提供多种“一键式”边缘计算解决方案。更重要的是,这些解决方案易于部署且能够在多个位置进行扩展。结合HPE之前春季发布的公告,Edge Orchestrator似乎有望成为一款重磅产品,解锁5G核心堆栈微服务集以及开放分布式基础设施管理(ODIM)平台等多种实际边缘用例,帮助5G运营商简化部署流程。对我来说,ODIM的重大吸引力,在于它能够同时管理来自多家厂商的多代蜂窝基础设施。ODIM提供的这种核心编排能力不仅有助于提高服务敏捷性,同时也将显著节约运营费用。
HPE公司对于Aruba职能的定位与运用方式给我留下了深刻印象。一般来讲,企业在完成商业收购之后,往往会消化被收购方的知识产权并削减相关人员。但HPE的作法并非如此,考虑到Melkote先生及其团队在推动HPE整体优势战略中所发挥的重大作用,甚至将Aruba收购案理解在一种“反向”合并也不为过。此外,HPE也拥有一支强大的电信业务团队,始终以运营思路看待一切技术成果。在他们的支持下,HPE积极参与到通过强大服务与解决方案组合构建未来5G网络的浪潮当中。简而言之,Discover 2020大会再次彰显了HPE公司在边缘技术领域的领导力与业务敏锐度。无论是从企业的角度出发、还是作为一家服务供应商,我都坚信HPE公司有能力也有意愿充分把握住5G优势及潜能所带来的历史性发展窗口。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。