共有34种设计方案可供选择,如何开启机器学习之旅任君考量。
为了引导技术人员和工程师们积极尝试自家AI加速硬件,英特尔公司已经整合出一系列软件参考套件,宣称能减少在其芯片之上部署机器学习系统所需要的时间和资源。
如大家所想,这34种开源参考套件能够解决各种常见的AI/机器学习工作负载,包括支持聊天机器人和他生成式AI大语言模型,以及处理对象检测、语音生成和财务风险预测等更为普遍的任务类型。
英特尔指出,他们与埃森哲合作开发的这些参考套件均包含必要的模型代码、训练数据、库、oneAPI组件以及面向英特尔硬件的具体实现指令。根据英特尔方面的介绍,这些参考套件还将根据社区的反馈意见定期保持更新。
但这里需要澄清一点:这些套件似乎均为纯软件。需要由客户提供(内置英特尔芯片的)硬件,再配合给定的套件在其上构建AI/机器学习应用程序。
英特尔当然也做好了战斗准备,手中掌握着大量可运行此类AI应用程序的加速器和GPU,包括Habana Gaudi 2训练处理器、Ponte Vecchio GPU以及内置在英特尔Sapphire Rapids至强Scalable处理器当中的高级矩阵扩展加速器。
尽管一直在围绕生成式AI开展大规模宣传,但英特尔的加速器似乎始终没能像英伟达的GPU那样受到公众的广泛关注和使用。而好消息是,英伟达家的GPU被大量用于训练那些规模恐怖、知名度极高、疯狂吞噬GPU资源的大语言模型(各大主要云服务商也在主动争夺英伟达资源,采购数以万计的GPU和加速器),因此一定会有很多客户无法以合理的价格和供应量获取英伟达产品,这样英特尔也就有了占领市场份额的机会空间。
根据技术外媒体The Next Platform的报道,英伟达的H100 PCIe卡(这甚至还不是英伟达家最顶级的GPU版本)在eBay上的竞价已经高达4万美元。
因此,只要英特尔能够降低在其加速器上部署AI工作负载的障碍,那这位x86技术巨头应该有能力说服客户接受他们的部件,特别是那些更昂贵的旗舰产品。
当然,采取这种曲线对抗策略的不只有英特尔一家。英伟达在GPU加速的软件开发与商业化方面已经取得了巨大成功。去年,英伟达CFO Colette Kress就明确强调了此类订阅软件收入,将对推动GPU芯片巨头实现万亿级别收入的重要意义。
AMD也在积极推出自己的AI GPU和加速器产品。今年6月,AMD方面详细介绍了Instinct MI300 APU与GPU,这些产品将在HPC和AI/机器学习领域同英伟达展开正面竞争。除了新款芯片之外,这家芯片制造商还宣布与Hugging Face建立战略合作伙伴关系,由后者负责开发用于构建机器学习应用程序的工具,并针对AMD的Instinct GPU、Alveo FPGA、以及Epyc与Ryzen CPU对目前几种主流AI模型做出优化。
好文章,需要你的鼓励
TAE Technologies在最新一轮投资中获1.5亿美元,累计融资约18亿美元。公司利用 AI 技术优化融合反应堆设计,目标于 2030 年代商业化发电,谷歌等巨头均参与合作。
这项来自KU Leuven、中科大和上海Memory Tensor公司的研究探索了如何利用拼图游戏训练多模态大型语言模型的视觉推理能力。研究发现,现有模型在未经训练时表现近似随机猜测,但通过强化学习能达到近乎完美的准确率并泛化到更复杂的拼图配置。有趣的是,模型能否有效学习与是否包含明确推理过程无关,且复杂推理模式是预先存在而非突然出现的。此外,研究证明强化学习在泛化能力上优于监督微调,挑战了传统的模型训练范式。这些发现不仅揭示了AI视觉理解的机制,还为未来多模态模型研发提供了重要参考。
Nvidia 正在全球数据中心推广 AI 芯片,其最新 Blackwell 架构在 MLPerf 基准测试中获得最高性能,大幅加速下一代 AI 应用的训练与部署。
这项研究提出了LoHoVLA,一种用于长时序实体任务的统一视觉-语言-动作模型,融合了高层任务规划和低层动作控制功能。与传统方法不同,它利用单一预训练视觉语言模型同时生成语言子任务和机器人动作,并采用分层闭环控制机制增强鲁棒性。研究团队构建了包含20个长时序任务的LoHoSet数据集,实验结果显示LoHoVLA在Ravens模拟器中显著优于现有方法,展现出统一架构在实现可泛化实体智能方面的潜力。