该公司正依靠广泛的业务布局应对服务器销量下滑。
如今,每家科技巨头都在奋力争夺AI收入这块蛋糕,HPE也希望通过公司CEO Anotnio Neri所强调的“AI原生”战略保住自己的江湖地位。
据称,HPE能够在AI模型生命周期的各个阶段(从训练到调优、再到推理)为客户提供支持。这主要是由于HPE手中握有Cray,并能够提供训练大规模AI模型所必需的超级计算技术。Neri宣称,这些都是HPE竞争对手所不具备的差异化优势。
与业内许多其他企业一样,HPE认为未来的AI要素只会越来越普遍。要想把握住这一绝佳机遇,HPE就必须让市场相信自己掌握着破解难题的关键要素,并通过其Greenlake平台进行交付。
在本届巴塞罗那HPE Discover大会的主题演讲中,Neri强调了AI技术在企业中的应用场景。借用一句老话:AI将是“我们一生中最具颠覆性的技术。”
随着OpenAI及其基于大语言模型的ChatGPT聊天机器人的蹿红,人们对于生成式AI模型的举与日俱增,外界对这项技术的狂热期待也正在成为常态。
Neri指出,“在2022年之前,AI还普遍被视为一种发展愿景,但ChatGPT的出现改变了这一切。”
“现在想象一下,也许未来的每一项业务决策都将由AI进行支持。预测分析将推动具体执行达到新的高度,帮助大家做出更好、更快的决策,预测出新的商业趋势。”
为了支持这一论断,Neri与Taiga Cloud公司董事总经理Karl Havard一同登上大会舞台。Taiga Cloud是一家专为AI处理构建云环境的欧洲厂商。
Taiga正使用HPE的Cray XD节点,该节点平台配备有英伟达H100 GPU,与HPE今年6月公布的用于大语言模型超级计算服务的Greenlake硬件相同。
Havard表示,他们的公司希望推动生成式AI技术的普及化访问,确保初创公司和小型企业也能获得训练模型所需要的资源,且不必构建自己的基础设施或使用大型公有云。
Neri承认,与其他公司的合作关系对HPE同样至关重要,特别是英伟达。这是因为英伟达GPU在HPE的AI超级计算系统及生成式企业解决方案(刚刚于本周在Discover大会上公布)中均发挥着关键作用。
英伟达企业计算副总裁Manuvir Das也在此次主题演讲中露面,解释称许多企业用户将无需耗费大量时间和精力来构建并训练自己的AI,现在可以选择预先训练的AI基础模型并直接使用,或者做进一步微调以更好地满足自身需求。
Das解释道,“有了基础模型,相当于其他人已经替你完成了工作。他们做好了99%的部分,而我们只要补全这最后1%,模型就能为自己服务了。”
但需要注意的是,英伟达同样也是HPE各竞争对手的主要供应商,特别是戴尔。戴尔今年早些时候推出了自己的AI推理与定制及模型调优平台,同样采用英伟达GPI及其AI Enterprise软件套件。
尽管目前已经将所有注意力和资源都集中在AI模型训练之上,但HPE认为推理才是AI落地的关键环节,因为这才是AI模型生命周期的应用主体。
Neri在现场问答中表示,“只有做好了部署模型的准备,AI的应用才会真正开始,而这里开始的就是推理。推理可以发生在数据中心,但我相信未来会有很多推理发生在更适合实时处理数据的位置,借此加快决策速度。”
面对近期计算业务收入暴跌31%且连续三个季度无法摆脱颓势,HPE显然需要牢牢把握住市场对于AI推理新设施的潜在需求。
Neri在回答另一个问题时指出,“计算业务不会消失,反而可能受到AI推理需求的刺激和提振。”
尽管HPE在AI领域投入巨量资源,可万一这项技术并没能像众多评论家所说的那样引发拐点,结果又会如何?
HPE英国、爱尔兰、中东和非洲董事总经理Matt Harris坚信,AI将从根本上改变企业的运营方式。
Harris表示,“我认为ChatGPT中的生成式AI已经将这项技术融入了每个人的意识与思维过程,而这还仅仅只是开始。我认为AI将人渗透进我们的生活、已经渗透进我们的生活。它当前确实还不成熟,但就如同多年以来互联网搜索和客服聊天机器人的发展迭代一样,它也终将重塑我们的工作和日常生活形态。”
好文章,需要你的鼓励
AMD CIO的职能角色早已超越典型的CIO职务,他积极支持内部产品开发,一切交付其他部门的方案都要先经过他的体验和评判。
医学生在选择专业时,应当考虑到AI将如何改变医生的岗位形态(以及获得的薪酬待遇)。再结合专业培训所对应的大量时间投入和跨专业的高门槛,这一点就更显得至关重要。
我们拥有大量数据,有很多事情要做,然后出现了一种有趣的技术——生成式AI,给他们所有人带来的影响。这种影响是巨大的,我们在这个领域正在做着惊人的工作。