以ChatGPT为代表的生成式AI应用持续爆发,其流畅的文本对话不光可以用于对话场景,甚至编写软件和加速药物研发。作为这些AI应用背后的强大引擎,大型语言模型(LLM)正在被越来越多的行业所采用。
虽然LLM的表现令人印象深刻,但是如何确保回答的内容可信可靠也是业界讨论的焦点。近日,NVIDIA将其多年研究成果——NeMo Guardrails开源,专为帮助用户保证新型AI赋能的应用的安全性而开发。

NeMo Guardrails确保大型语言模型(LLM)驱动的智能应用准确、恰当、符合主题且安全。该软件包含了企业为提高可以生成文本的AI应用程序的安全性所需的所有代码、示例和文档。
构建三种边界,确保LLM安全
生成式AI的安全性是人们普遍关心的问题。NVIDIA设计NeMo Guardrails是为了让它适用于所有LLM,例如OpenAI的ChatGPT。
该软件可以让开发者调整LLM驱动的应用,以确保模型的安全性并在公司的专业领域内。
NeMo Guardrails使开发者能够构建三种边界:
几乎每个软件开发人员都可以使用NeMo Guardrails,他们不需要成为机器学习专家或数据科学家,只需几行代码就可以快速创建新的规则。
开源,并易于集成
NVIDIA NeMo框架的大部分内容已在GitHub上作为开放源码提供。而且NVIDIA正在将NeMo Guardrails整合到NVIDIA NeMo框架中,该框架包含用户使用公司的专有数据来训练和调整语言模型所需的一切。
由于NeMo Guardrails是开源的,因此它可以与企业应用开发人员使用的所有工具搭配使用。例如,它可以在LangChain上运行。LangChain是一个开源工具包,越来越多的开发者用它来将第三方应用嵌入到LLM中。
LangChain工具包的创建者Harrison Chase表示:“用户可以轻松地将NeMo Guardrails添加到LangChain工作流程中,以快速为其AI应用设置安全边界。”
此外,NeMo Guardrails专为适用于广泛的基于LLM的应用而设计,例如Zapier。Zapier是一个被超过200万家企业使用的自动化平台,它见证了用户如何将AI集成到他们的工作中。
Zapier的AI首席产品经理Reid Robinson表示:“功能安全,信息安全和信任是负责任的AI开发的基石,我们对NVIDIA主动将这些护栏嵌入AI智能系统感到兴奋。我们期待着让AI成为未来可靠并值得信赖的一部分所带来的益处。”
其实,NeMo作为NVIDIA AI Enterprise软件平台的一部分,还可以以完整的支持包的形式提供给企业。
NeMo还可作为一项服务使用。作为NVIDIA AI Foundations的一部分,这套云服务面向希望基于自己的数据集和领域知识创建、运行自定义生成式AI模型的企业。
通过使用NeMo,韩国领先的移动运营商构建了一个智能助手,该助手目前已经与客户进行了800万次对话;瑞典的一个研究团队使用NeMo创建了LLM,为该国医院、政府和商业机构自动生成文本。
结语
确保生成式AI的安全是重中之重,NeMo Guardrails是NVIDIA的一种有益探索,帮助企业确保他们的智能服务满足功能安全、隐私和信息安全的要求,推动AI安全工作。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。