HPE Greenlake
2019年,Hewlett Packard Enterprise曾矢志在2022年之前将旗下所有产品转化为“即服务”形式。在这项战略当中,HPE的GreenLake云服务产品组合无疑是最重要的组成部分之一。就在上周,HPE方面终于为这套旨在为企业客户提供高灵活度、可扩展且安全的IT体系全面组织与监控解决方案引入新成员。随着高性能计算(HPC)产品的的推出,GreenLake产品线将逐步为主流企业带来更加轻松易行的HPC服务。下面具体来看。
降低HPC准入门槛
近年来,高性能计算的迅猛发展为研究人员、工程师以及企业自身带来了广阔的发展空间。借助这些系统提供的强大算力,组织得以开发模型、运行模拟并从业务数据存储库中提取洞见——考虑到巨大的数据体量及分析复杂度,这一切在以往根本无法想象。此外,高性能计算系统在AI与自动化等下一代技术领域同样表现出色,帮助更多企业乘上AI与自动化的发展浪潮。如今,从协助疫苗研发、到家居消费品、再到设计更为安全的自动驾驶汽车,几乎一切业务都能受益于HPC的有力支持。这些系统能够运行模拟,进而预测库存趋势、加速并提高石油与天然气勘探工作的安全性等等。坐拥这一潜力,预计到2024年,全球HPC市场总值将增长超过40%(根据Intersect360 Research的研究结果)。
但在HPC广泛进入企业领域之前,首先需要解决的难题在于:这些强大的计算机系统成本高昂、架构复杂且极耗资源。普通企业往往没有充足的时间、金钱或人员专门负责这些HPC系统的部署与管理。
在这方面,HPE GreenLake通过按需付费、可扩展、完全托管的服务形式交付HPC算力,借此以革命性的方式加快HPC在主流企业群体中的部署速度。HPE方面指出,这将使HPC项目的部署速度提升达75%,同时将成本缩减至40%。这些改进,相当于是把这种足以改变行业游戏规则的技术真正交付至普通企业手中。
更多详情
首先,HPE GreenLake以自家Apollo系统为基础提供HPC服务,未来还将逐步引入更多HPE元素(包括Cray系统)以构建起不断增强的HPC产品组合。目前发布的第一套方案主要利用HPE的网络与存储技术,专门针对建模及仿真工作负载所构建。此外,其中还包含HPC工作负载管理软件、HPC集群管理与监管功能,并支持特定于HPC的容器及业务流程。
客户还将由此获得GreenLake的其他重要服务,包括用于管理及优化客户HPC服务的HPE GreenLake Central平台;可为客户提供GreenLake使用指标及成本实时视图的Consumption Analytics;供客户通过简单点击对HPC集群进行部署及管理、且不会造成工作流中断的自助服务仪表板;最后是HPC、AI与App服务,这些服务用于对HPC工作负载进行标准化并将其打包在容器之内。这最后一项功能旨在简化数据的现代化、传输与访问流程,帮助企业客户顺利推进自身数字化转型计划。
此项新服务将于明年春季以三种不同配置形式(小型、中型与大型)面向公众开放。HPE方面表示,客户在订购之后将于14天内收到捆绑包,并很快得以启动并全面管理属于自己的HPC服务。
广泛的生态系统支持
对于一切新兴技术,HPE的GreenLake Cloud Services for HPC都拥有众多合作伙伴的有力支持。如果企业客户缺乏充足的物理空间以容纳HPC系统及设备,您可以选择将其部署在HPE主机代管合作伙伴所运营的低功耗、高可扩展数据中心之内。以此为基础,客户可以通过GreenLake远程访问其HPC服务。这套解决方案特别适用于那些不需要本地数据中心,或者不愿分神打理数据中心物理基础设施的企业。
此外,HPE还拥有一系列独立软件供应商(ISV)合作伙伴,包括Activeeon、Core Scientific以及TheUberCloud等,他们负责为广泛的潜在HPC应用场景提供软件方案——具体涵盖AI、自动化、分析以及计算机辅助设计(CAD)等等。
总结
对于一切有意愿尝试HPC、但又担心为此支付过高成本的企业来说,HPE的最新公告都代表着可喜的新方向。不同规模的企业都能够从HPC的解决方案中获益,由此摆脱传统上种种令人头痛的部署及运营负担。也正因为如此,即服务模式才在近年来的市场之上受到广泛关注——通过将IT事务外包给第三方,企业将得以保留宝贵资源及人力以专注于更具战略意义的业务目标。总而言之,相信HPE GreenLakd在高性能计算领域做出的探索有助于推动HPC技术的大众化,特别是有助于加快HPC在企业应用领域的广泛普及。未来可期,我们将持续关注HPE在高性能基础设施以及HPC专用数据管理工具市场上的发展动态。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。