基于ServiceNow平台并采用NVIDIA AI软件和DGX基础设施构建的自定义大型语言模型将为企业带来更智能的工作流自动化

Knowledge 2023 - 太平洋时间2023年5月17日 - ServiceNow和NVIDIA今日宣布达成合作伙伴关系,将共同开发强大的企业级生成式AI功能,通过实现更快、更智能的工作流自动化来转变业务流程。
通过使用NVIDIA的软件、服务和加速基础设施,ServiceNow正在开发使用ServiceNow 平台(智能端到端数字化转型平台)专有的数据进行训练的自定义大型语言模型。
这次合作将进一步扩展ServiceNow本已十分丰富的AI功能,为IT部门、客服团队、员工、开发人员等在内的整个企业带来新的生成式AI用例,进而加强工作流自动化并迅速提高生产力。
ServiceNow还借助这些生成式AI工具帮助NVIDIA简化并提高其IT运营效率,使用NVIDIA数据来自定义NVIDIA® NeMo™基础模型,这些模型在由NVIDIA DGX™ Cloud和本地NVIDIA DGX SuperPOD™ AI超级计算机组成的混合云基础设施上运行。
NVIDIA创始人兼首席执行官黄仁勋表示:“IT是各行各业现代化企业的神经系统。我们的合作将为企业打造高度专业化的生成式AI,提高IT专业人士使用ServiceNow平台的能力和生产力。”
ServiceNow总裁兼首席运营官CJ Desai表示:“随着生成式AI的普及速度不断加快,组织正在转向具有成熟、安全的AI能力且值得信赖的厂商来提高生产力,获得竞争优势并保持数据和IP的安全。NVIDIA和ServiceNow将共同帮助企业把自动化提升到新的水平,从而提高生产力并实现业务影响力的最大化。”
利用生成式AI重塑数字业务
ServiceNow和NVIDIA正在探索许多生成式AI用例,通过提供高精度和更高的IT价值来简化和提升整个企业的生产力。
比如通过能够使用大型语言模型并专注于解决指定IT任务的专用AI聊天机器人,开发出帮助快速解决各类用户问题和支持请求的智能虚拟助手和坐席。
为了简化用户体验,企业可以使用自己的数据定制聊天机器人,创建一个中央生成式AI资源,在解决各种不同请求的同时不脱离主题。
这些生成式AI还可以帮助客服坐席更加准确地确定案例的优先次序、节省时间并改善结果。客服团队可以使用生成式AI自动解决问题、根据客户案例摘要生成知识库文章并通过归纳聊天内容加快问题的移交、解决和总结。
此外,生成式AI可通过帮助员工发现成长机会来改善员工的体验,例如根据自然语言查询和员工资料中的信息提供课程、导师等定制化的学习和发展建议。
全栈式NVIDIA生成式AI软件和基础设施推动快速发展
在生成式AI的研究和开发过程中,ServiceNow正在使用NVIDIA AI Foundations 云服务和包含NVIDIA NeMo框架的NVIDIA AI Enterprise软件平台。
NeMo包含提示性调整、监督性微调和知识检索工具,可帮助开发者构建、自定义和部署用于企业用例的语言模型。内置的NeMo Guardrails软件使开发者能够轻松地为AI聊天机器人添加主题、功能安全和信息安全功能。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。