该公司正依靠广泛的业务布局应对服务器销量下滑。
如今,每家科技巨头都在奋力争夺AI收入这块蛋糕,HPE也希望通过公司CEO Anotnio Neri所强调的“AI原生”战略保住自己的江湖地位。
据称,HPE能够在AI模型生命周期的各个阶段(从训练到调优、再到推理)为客户提供支持。这主要是由于HPE手中握有Cray,并能够提供训练大规模AI模型所必需的超级计算技术。Neri宣称,这些都是HPE竞争对手所不具备的差异化优势。
与业内许多其他企业一样,HPE认为未来的AI要素只会越来越普遍。要想把握住这一绝佳机遇,HPE就必须让市场相信自己掌握着破解难题的关键要素,并通过其Greenlake平台进行交付。
在本届巴塞罗那HPE Discover大会的主题演讲中,Neri强调了AI技术在企业中的应用场景。借用一句老话:AI将是“我们一生中最具颠覆性的技术。”
随着OpenAI及其基于大语言模型的ChatGPT聊天机器人的蹿红,人们对于生成式AI模型的举与日俱增,外界对这项技术的狂热期待也正在成为常态。
Neri指出,“在2022年之前,AI还普遍被视为一种发展愿景,但ChatGPT的出现改变了这一切。”
“现在想象一下,也许未来的每一项业务决策都将由AI进行支持。预测分析将推动具体执行达到新的高度,帮助大家做出更好、更快的决策,预测出新的商业趋势。”
为了支持这一论断,Neri与Taiga Cloud公司董事总经理Karl Havard一同登上大会舞台。Taiga Cloud是一家专为AI处理构建云环境的欧洲厂商。
Taiga正使用HPE的Cray XD节点,该节点平台配备有英伟达H100 GPU,与HPE今年6月公布的用于大语言模型超级计算服务的Greenlake硬件相同。
Havard表示,他们的公司希望推动生成式AI技术的普及化访问,确保初创公司和小型企业也能获得训练模型所需要的资源,且不必构建自己的基础设施或使用大型公有云。
Neri承认,与其他公司的合作关系对HPE同样至关重要,特别是英伟达。这是因为英伟达GPU在HPE的AI超级计算系统及生成式企业解决方案(刚刚于本周在Discover大会上公布)中均发挥着关键作用。
英伟达企业计算副总裁Manuvir Das也在此次主题演讲中露面,解释称许多企业用户将无需耗费大量时间和精力来构建并训练自己的AI,现在可以选择预先训练的AI基础模型并直接使用,或者做进一步微调以更好地满足自身需求。
Das解释道,“有了基础模型,相当于其他人已经替你完成了工作。他们做好了99%的部分,而我们只要补全这最后1%,模型就能为自己服务了。”
但需要注意的是,英伟达同样也是HPE各竞争对手的主要供应商,特别是戴尔。戴尔今年早些时候推出了自己的AI推理与定制及模型调优平台,同样采用英伟达GPI及其AI Enterprise软件套件。
尽管目前已经将所有注意力和资源都集中在AI模型训练之上,但HPE认为推理才是AI落地的关键环节,因为这才是AI模型生命周期的应用主体。
Neri在现场问答中表示,“只有做好了部署模型的准备,AI的应用才会真正开始,而这里开始的就是推理。推理可以发生在数据中心,但我相信未来会有很多推理发生在更适合实时处理数据的位置,借此加快决策速度。”
面对近期计算业务收入暴跌31%且连续三个季度无法摆脱颓势,HPE显然需要牢牢把握住市场对于AI推理新设施的潜在需求。
Neri在回答另一个问题时指出,“计算业务不会消失,反而可能受到AI推理需求的刺激和提振。”
尽管HPE在AI领域投入巨量资源,可万一这项技术并没能像众多评论家所说的那样引发拐点,结果又会如何?
HPE英国、爱尔兰、中东和非洲董事总经理Matt Harris坚信,AI将从根本上改变企业的运营方式。
Harris表示,“我认为ChatGPT中的生成式AI已经将这项技术融入了每个人的意识与思维过程,而这还仅仅只是开始。我认为AI将人渗透进我们的生活、已经渗透进我们的生活。它当前确实还不成熟,但就如同多年以来互联网搜索和客服聊天机器人的发展迭代一样,它也终将重塑我们的工作和日常生活形态。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。