
图:rawpixel/freepik
惠普企业有限公司(HPE)进一步扩展旗舰产品HPE GreenLake系列,日前推出支持生成式人工智能的GreenLake大型语言模型(LLMs)。
HPE表示,业界企业现在可以利用多租户超级计算云服务按需使用LLM及进行可持续的超级计算平台训练、微调和人工智能模型的部署。
HPE在美国拉斯维加斯举行的HPE Discover大会上宣布推出HPE GreenLake大型语言模型。 HPE与德国人工智能初创公司Aleph Alpha GmbH合作交付GreenLake大型语言模型。GreenLake大型语言模型为用户提供训练好的LLM,可用于需要文本和图像处理及分析的用例。据称,GreenLake大型语言模型是HPE计划推出的一系列行业和特定领域人工智能应用中的第一个产品。其他的一些应用将会支持诸如气候建模、医疗保健和生命科学、金融服务、制造和运输等用例。
HPE表示,GreenLake大型语言模型在HPE Cray XD超级计算机上运行。这意味着客户将不需要自己支付或租用这些资源。HPE Cray XD提供人工智能原生架构。人工智能原生架构是专门用于以全计算能力运行单一大规模人工智能训练及模拟工作负载。据HPE称,HPE Cray XD可以支持人工智能和高性能计算工作负载同时在数百甚至数千个中央处理单元和图形处理单元上运行,从而提供训练和创建更准确的人工智能模型所需的基础架构。
客户可以使用名为Luminous的预训练LLM。Luminous由Aleph Alpha开发。客户利用Luminous可以用自己的数据训练和微调定制的人工智能模型。客户利用该服务可以建立各种类型的人工智能应用,并将其整合到自己的业务工作流程中。用户还将获得HPE的机器学习开发环境和机器学习数据管理软件。该软件可提供人工智能模型的快速训练以及整合、训练数据的跟踪和审计等所需的工具。
Aleph Alpha首席执行官Jonas Andrul表示,“我们利用HPE的超级计算机和人工智能软件可以高效、快速地训练出Luminous这个大型语言模型,Luminous可供银行、医院和律师事务所等关键企业作为数字助理使用。我们很荣幸能成为HPE GreenLake大型语言模型的启动合作伙伴。我们将会把Luminous扩展到云端,并会将其以即服务的形式提供给终端客户,推动商业和研究计划新应用的发展。”
Constellation Research Inc.分析师Holger Mueller表示,HPE进入了一个越来越拥挤的领域,众多基础设施供应商都在争相为新一代的生成式人工智能工作负载提供支持。但他表示,HPE也有很大的发展空间,原因是希望建立这种模型的公司对计算资源的需求非常庞大。
Mueller表示,“HPE手里真正的王牌是旗下的Cray超级计算机。Cray拥有处理LLM工作负载的完美架构。HPE也在与多个人工智能合作伙伴进行开放合作,例如Aleph Alpha。HPE对于那些有数据安全意识的欧洲客户可能特别有吸引力。这些客户可以利用HPE GreenLake在云中进行训练,然后在本地进行推理,为公司的ProLiant服务器创造更多的工作负载。”
Mueller的Constellation同事Andy Thurai补充表示,HPE的产品与大型云供应商的产品不同,HPE的产品可能对一些气候建模、医疗保健和生命科学、金融服务、制造和运输等应用和行业有吸引力。他表示,“在这些特定行业建立特定领域平台可以带来价值。这在公共云中是难以做到的。”
他表示,HPE的混合计算方法同样也很独特。他称,“在混合地点训练LLM一直都是个挑战,原因之一是计算能力,另外还需要建立生态系统。HPE提供的超级计算即服务含内置人工智能和LLM模型训练生态系统,希望这可以提供一些帮助。”
Thurai指出,尽管如此,HPE其实是在寻找成熟的AI工作负载,而不是较新的、更具创新性的工作负载。因此,他表示,“工作负载数量和总的可用市场对这些客户来说将是非常有限的。公共云供应商将会找到一个机制防止最初的创新云工作负载迁移出去。”
HPE称HPE GreenLake大型语言模型将按需提供。HPE表示现在已开始接受订单,预计到今年年底将在北美启动并运行,2024年初在欧洲启动。
好文章,需要你的鼓励
Allen AI研究所联合多家顶尖机构推出SAGE智能视频分析系统,首次实现类人化的"任意时长推理"能力。该系统能根据问题复杂程度灵活调整分析策略,配备六种智能工具进行协同分析,在处理10分钟以上视频时准确率提升8.2%。研究团队创建了包含1744个真实娱乐视频问题的SAGE-Bench评估平台,并采用创新的AI生成训练数据方法,为视频AI技术的实际应用开辟了新路径。
联想推出新一代NVMe存储解决方案DE6600系列,包含全闪存DE6600F和混合存储DE6600H两款型号。该系列产品延迟低于100微秒,支持多种连接协议,2U机架可容纳24块NVMe驱动器。容量可从367TB扩展至1.798PiB全闪存或7.741PiB混合配置,适用于AI、高性能计算、实时分析等场景,并配备双活控制器和XClarity统一管理平台。
中科院团队首次系统评估了AI视觉模型在文本压缩环境下的理解能力,发现虽然AI能准确识别压缩图像中的文字,但在理解深层含义、建立关联推理方面表现不佳。研究通过VTCBench测试系统揭示了AI存在"位置偏差"等问题,为视觉文本压缩技术的改进指明方向。