又有花钱的新方向了。但请注意:很多模型“永远不会得到广泛应用,因为坦率讲,它们都是垃圾。”
戴尔已经迫不及待想乘上这股生成式AI的东风……疯狂拉升客户的花销支出。为此,用于AI本地部署的新一波硬件捆绑包和咨询服务已经准备到位。

来自得克萨斯的这位IT巨头本周一发布了三合一新套餐,具体包括:
戴尔基础设施解决方案部门(ISG)高级副总裁Varun Chhabra在采访中表示,戴尔认为许多组织“在采用及/或尝试生成式AI,并将其应用于业务领域方面表现出极大的紧迫性。”
此次经过验证的设计方案将使用戴尔套件,包括今年早些时候发布的PowerEdge xE9680,该套件可配置最多8个英伟达H100 GPU,同时配合戴尔存储。软件方面则包含英伟达的AI Enterprise套件和用于大语言模型(LLM)的NeMo框架。
Chhabra指出,这些参考设计还提供关于如何调整相应基础设施管理软件的具体规范和指南。
新方案均与英伟达联合设计,希望帮助客户能从零开始构建自有模型,或者使用自有数据对现有模型做微调,之后通过扩展投入实践应用。
这听起来跟硬件厂商在新兴工作负载出现时的惯常策略非常相似:打造捆绑包,方便用户用玩乐高的方式建立起相应的基础设施。毕竟定制化设备的研发和使用都太过复杂,不如直接购买大厂提供的成品或半成品。
如何将生成式AI整合至现有流程中并发挥最佳效果?如何实现复杂的流程自动化?
Chhabra解释道,戴尔方案对于“任何需要自然语言生成功能的场景都很适用,典型的例子包括聊天机器人和虚拟助理。此外,软件开发、市场营销和内容创作也都是比较主流的使用方向。”
Chhabra还补充称,无论大家是刚刚开始接触这股新风潮、还是打算构建自己的大语言模型,戴尔的AI专业服务人员都随时准备为您提供建议和知识指引。只要购买产品,大家就是戴尔的好兄弟!
戴尔还积极在数据管理和业务集成方面提供协助。
Chhabra指出,“其中一项重点,就是如何处理数据、使用哪些数据源和怎样保证数据安全性,确保数据不致落入坏人手中。另外,还涉及如何将生成式AI整合至现有流程中并发挥最佳效果?如何实现复杂的流程自动化?如何将生成式AI基础设施及软件与现有应用程序对接起来?”
Chhabra坦言,虽然用户们普遍认为生成式AI能带来可观的潜在收益,但也对其中的风险表示担忧。没错,从目前的种种迹象来看,使用生成式AI还真得小心谨慎。
“我们都清楚生成式AI、共享企业数据和工具的风险。其中一些工具可能会触及隐私记录,而且对于不同输入数据可能引发的后果及相应的管理规则,目前也没有统一答案。”
正因为如此,戴尔才希望扮演这个值得依赖的好伙伴角色,帮助客户推进生成式AI计划,并充分利用他们在业务中积攒起的高价值数据集。
这套与英伟达合作打造的戴尔生成式AI验证设计,目前已经通过戴尔的传统销售渠道及其APEX IT即服务项目在全球范围内全面上市。
戴尔方面还调整了其工作站设计,以便开发人员能够快速投入到AI工作当中。Precision 79607865和5860等机型现在均可在单机之内安装最多4个英伟达RTX 6000 GPU。Chhabra表示,这将把AI软件框架的运行速度较上代Precision工作站提升80%。
那戴尔的这套方案里,有什么真正独特的亮点吗?
我们就此求证了几位专家。
Canalys公司首席分析师Matthew Ball告诉我们,“跟以往任何引发关注的新技术一样,AI也肯定摆脱不了炒作的困扰,但其中的具体方向和项目定位还是得具体分析。”在他看来,AI服务(包括咨询、设计、实施、集成等)在2023年内的总价值将达到150亿美元。
“其背后驱力,主要是那些尚未正式步入数字化时代的组织。这个问题在新冠疫情期间已经显露了出来,而他们如今正急于采用生成式AI,避免被竞争对手甩得太远。”
而戴尔这等体量庞大、资源丰富的科技巨头,自然不会错过这波热潮。
Omdia公司首席分析师Roy Illsley则表示,生成式AI已经成为新的赌注。“每家厂商都需要拿出自己的产品,帮助客户结合自己的数据打造定制化模型。”
“在我看来,如果这项技术也遵循典型的炒作周期理论,那我们目前仍处于未到峰值的上升阶段。”他同时补充称,AI技术后续的下降幅度应该比其他技术更缓,回升速度则更快。毕竟AI技术已经存在多年,而大语言模型(或者叫基础模型)也成为人们访问AI的更好方式。
“没错,我们会看到更多此类模型出现并供人们使用。但其中很多模型永远不会得到广泛应用,因为坦率讲,它们都是垃圾。所以着眼于未来12个月,市场上应该会出现大量模型——人们要么因为它们的出色表现而振奋,要么受其糟糕表现的打击而陷入沮丧。”
Illsley最后总结称,目前已经有充足的证据可以证明,市场会快速清除垃圾、人们也只会被效果出彩的实用模型所吸引。
好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。