图形芯片和AI基础设施提供商Nvidia在近日举行的Computex 2023大会上公布了一个参考工作流程,该工作流程使用Nvidia的技术套件来推进工业制造领域的数字化。
此举的目标是显着简化工厂的规划、建设、运营和优化。这也是制造商和其他行业向所谓的工业元宇宙迈进的其中一个部分:工业元宇宙使用虚拟现实和增强现实将物理世界和数字世界融合在一起,以改变企业设计、制造和与对象交互的方式。
这种工作流程集成了各种Nvidia工具,包括用于3D协作和生成式AI的Omniverse、用于机器人模拟的Isaac Sim、以及用于自动光学检查的Metropolis AI。富士康工业互联网、宜鼎国际、和硕、广达和纬创在内的知名电子制造商已经在实施这一参考工作流程,例如,富士康正在利用Metropolis对其电路板质量保证检查点的大部分实施了自动化。
Nvidia副总裁、嵌入式和边缘计算总经理Deepu Talla在与媒体和分析师的简报会上分享了有关Nvidia公司在工业数字化(本质上是利用数字技术转变运营的过程)方面所做努力的更多细节,Talla强调了以下三个关键进展。
Omniverse和工业元宇宙
Omniverse是Nvidia专为工业元宇宙应用而设计的平台,用途包括创建AI模型、合成数据生成、机器人模拟、构建仓库或工厂等行业的数字孪生,以及3D设计,用户可以从配置了Nvidia GPU的工作站、本地服务器或者Azure Cloud上访问该平台。
Omniverse很大程度上依赖于Autodesk和西门子等公司的设计和工程工具,目前有许多领先的电子制造商已经采用Nvidia AI和Omniverse来实现工厂数字化。
Talla说:“模拟的前景一直很明确——更快、更便宜、更安全,有了Omniverse和Nvidia AI这两者的结合,工厂可以在生产制造出实体之前就开始模拟测试。即使构建完成,引入现实世界之前也可以在模拟中不断更新和修改。因此,工业数字化的用途是非常明确的。”
用于工厂自动化的Metropolis
Metropolis是Nvidia的智能视频分析平台,部署在城市空间、交通路口、零售店和医疗领域。Nvidia将Metropolis引入工厂则主要是用于自动化检查,这种工作流程涉及用于合成数据生成的Omniverse、用于模型训练的TAO工具包、在本地或云端的运行时系统。
TAO工具包是基于TensorFlow和PyTorch构建,使创建AI模型的过程变得简单明了。即使可用数据有限,TAO也会使用一种称为迁移学习的技术,可重复使用适应特定业务需求的预制模型中的一部分。
Talla说:“检查主要分两个阶段进行,其中涉及许多误报,人们会进行二次检查。但是我们的客户和合作伙伴找到我们,要求我们构建一个解决方案,可以部署Metropolis来进行二次检查,并且使用AI来提高吞吐量。我们针对不同应用采用了相同的Metropolis工作流程,并针对工厂专门打造了一个Metropolis。”
Talla指出,Metropolis在工厂环境中的成功运用要取决于一系列合作伙伴,从应用提供商、设备制造商和综合数据提供商到系统集成商。Nvidia正在与各种合作伙伴展开合作,包括Adlink、Aetina、Deloitte、Quantiphi和Siemens,为客户提供为自动化工厂量身定制的解决方案。
Isaac和自主移动机器人
Isaac是Nvidia的机器人平台,用于训练模型、模拟机器人和管理机器人车队。多年来Nvidia一直在构建这个平台及其合作伙伴生态系统,目前有超过1000家公司正在生产或者开发过程中使用Isaac。
Nvidia将针对名为Isaac AMR的自主移动机器人推出完整的端到端软件堆栈,该软件堆栈将于7月提供给早期客户,主要由三个部分组成:模拟(机器人将构建的虚拟表示)、映射(创建地图以帮助机器人了解其周围环境的软件)、自主(使用完整的Nvidia平台让机器人能够独立运行)。
以上这些进展展示了Nvidia正在不断努力突破AI的边界以及工业应用中的模拟以促进工厂的大规模数字化。如果得到广泛采用,这些技术可能会改变制造业。
Computex大会上的一系列公告对Nvidia来说很重要,因为这些公告集合了多种产品,为Nvidia创造了一个销售套件。Nvidia刚刚度过了一个重要的季度,成为第一家市值突破万亿美元大关的芯片制造商。跨产品套件销售模式将会给Nvidia带来规模更大的、利润更高的交易,使其能够继续保持强劲的势头。
好文章,需要你的鼓励
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。
这项研究提出了"思想家"(Thinker)任务,一种受人类双重加工理论启发的新型AI训练方法。研究者将问答过程分解为四个阶段:快速思考(严格预算下给出初步答案)、验证(评估初步答案)、慢速思考(深入分析修正错误)和总结(提炼关键步骤)。实验表明,该方法使Qwen2.5-1.5B模型的准确率从24.9%提升至27.9%,DeepSeek-R1-Qwen-1.5B模型从45.9%提升至49.8%。显著的是,仅使用快速思考模式就能达到26.8%的准确率,且消耗更少计算资源,证明了直觉与深度推理作为互补系统的培养价值。
这项由ELLIS研究所和马克斯·普朗克智能系统研究所的科学家进行的研究,揭示了大语言模型安全测试的根本规律:越狱攻击成功率由攻击者与目标模型间的能力差距决定。通过评估500多个攻击者-目标组合,研究团队发现:更强的模型是更好的攻击者;当目标能力超过攻击者时攻击成功率急剧下降;社会科学能力比STEM知识更能预测攻击成功。基于这些发现,研究者建立了预测模型,表明随着AI进步,人类红队测试可能逐渐失效,提示需要发展自动化安全评估方法及更全面地评估模型的说服和操纵能力。