语言模型驱动的生成式AI正在席卷各行各业,带来前所未有的创新浪潮。
近日, ServiceNow和NVIDIA今日宣布达成合作伙伴关系,将共同开发强大的企业级生成式AI功能,通过实现更快、更智能的工作流自动化来转变业务流程。

据悉,ServiceNow依托双方的合作,扩展本已十分丰富的AI功能,为IT部门、客服团队、员工、开发人员等在内的整个企业带来新的生成式AI用例,进而加强工作流自动化并迅速提高生产力。
生成式AI带来全新业务想象空间
目前,全社会正在积极探索生成式AI的创新应用,比如搜索引擎、数字营销、办公软件、创作软件等场景,未来有望拓展更多垂直领域场景,如医疗、工业、能源等。ServiceNow和NVIDIA也在积极在多个业务场景引入生成式AI技术。
比如通过能够使用大型语言模型并专注于解决指定IT任务的专用AI聊天机器人,开发出帮助快速解决各类用户问题和支持请求的智能虚拟助手和坐席。
为了简化用户体验,企业可以使用自己的数据定制聊天机器人,创建一个中央生成式AI资源,在解决各种不同请求的同时不脱离主题。
生成式AI还可以帮助客服坐席更加准确地确定案例的优先次序、节省时间并改善结果。客服团队可以使用生成式AI自动解决问题、根据客户案例摘要生成知识库文章并通过归纳聊天内容加快问题的移交、解决和总结。
此外,生成式AI可通过帮助员工发现成长机会来改善员工的体验,例如根据自然语言查询和员工资料中的信息提供课程、导师等定制化的学习和发展建议。
总之,生成式AI的应用场景远不止这些,随着人工智能技术的不断发展和创新,生成式AI将在各个领域发挥更大的作用,为各行各业带来更多的价值和机遇。这也是ServiceNow和NVIDIA合作的出发点和目标。
全栈式产品组合支撑生成式AI
对于生成式AI在企业领域的大规模应用,NVIDIA早已做好了充足准备。正是NVIDIA提供的全栈式产品组合,为双方的合作打下了坚实的基础。
在生成式AI的研究和开发过程中,ServiceNow正在使用NVIDIA AI Foundations云服务和包含NVIDIA NeMo框架的NVIDIA AI Enterprise软件平台。
通过NVIDIA AI Foundations,企业将可以构建、完善和运行自定义大型语言模型和生成式AI模型,这些模型专为企业所在领域的特定任务而创建,并且在专有数据上训练。
ServiceNow使用NVIDIA数据来自定义NVIDIA NeMo基础模型,这些模型在由NVIDIA DGX Cloud和本地NVIDIA DGX SuperPOD AI超级计算机组成的混合云基础设施上运行。
企业可以使用NVIDIA NeMo语言服务,以及NVIDIA Picasso图像、视频和3D服务,为智能聊天和客户支持、专业内容创作、数字模拟等任务构建专属的、特定领域的生成式AI应用。
NeMo包含提示性调整、监督性微调和知识检索工具,可帮助开发者构建、自定义和部署用于企业用例的语言模型。内置的NeMo Guardrails软件使开发者能够轻松地为AI聊天机器人添加主题、功能安全和信息安全功能。
结语
生成式AI正在推动AI的快速普及,重塑无数行业。ServiceNow与NVIDIA的合作必将为生成式AI的应用提供有益的探索,推动人工智能的行业落地。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。