Nvidia今天在Interspeech 2021大会上推出了其最先进的对话人工智能模型,缩小了合成语音和人类语音之间的差距。

Nvidia科学和人工智能作者Isha Salian在一篇博客文章解释说,Nvidia在尝试使用AI创建与人类语音几乎无异的合成语音方面,取得了长足的进步。她指出:“人工智能已经将合成语音从单调的机器人录音以及有几十年历史的GPS导航系统,转变为智能手机和智能音箱中有着优美语调的虚拟助手。”
也就是说,差距仍然存在,因为人类语言中复杂的节奏、语调和音色是很难模仿的,但是Nvidia表示,现在距离弥合这一差距越来越近,将向所有人展示Nvidia正在取得的进展,同时邀请开发者基于这些成果再接再厉。
Salian称,RAD-TTS等可控语音合成模型可以很好地证明Nvidia所取得的成果、本月早些时候在SIGGRAPH Real-Time Live比赛期间,Nvidia演示了这一模型,该模型使用人类语音中的音频对一个文本转语音的模型进行训练,从而可以将任何新建文本转换为人类声音。
此外,RAD-TTS模型可以进行语音转换,也就是将一个说话者的声音转换为另一个人的声音,甚至这个人是以唱歌的形式而不是用正常声音说话。
Salian写道:“受到把人类声音作为一种乐器的想法启发下,RAD-TTS模型为用户提供了对合成语音的音高、持续时间和能量的细粒度、帧级控制”,这样就可以取得一些非常独特的结果,例如用女性叙述者的声音代替男性的声音。
Nvidia公司应用深度学习研究副总裁Bryan Catanzaro在新闻发布会上表示,语音研究是Nvidia的一个战略领域,在这个领域实际上有数十种潜在应用,从视频会议中的实时字幕,到医学转录、聊天机器人与语音接口等等。“我们觉得现在是让这些技术发挥更大价值一个很好的时机。”
Salian表示,Nvidia正在通过NGC人工智能软件中心上新推出的Nvidia NeMo工具包,将许多技术成果提供给开源社区。
Nvidia NeMo是一个用于GPU加速对话AI的开源Python工具包,旨在帮助研究人员和开发人员为不同的应用创建、试验和微调语音模型,该套件中包括了各种易于使用的应用编程接口和预先训练好的模型,从而帮助研究人员定制他们想要的模型,用于文本转语音、自然语言处理和实时自动语音识别。
其中一些模型已经使用Nvidia GPU系统对音频数据进行了数万小时的训练,现在开发者可以采用这些模型并针对一系列场景对模型进行微调。
Salian说,潜在的应用不再仅仅是为视频制作画外音这样简单的工作,还可以为有听力障碍的人群提供帮助,或者帮助人们用自己的声音在不同语言之间进行翻译。这些AI模型甚至可以用来重现标志性歌手的表演,不仅匹配歌曲的旋律,还匹配声音的情感表达。
除了Nvidia NeMo模型外,Nvidia研究人员还在Interspeech大会上参与了各种研讨,展示Nvidia在语音合成方面的进展。
好文章,需要你的鼓励
埃森哲与Anthropic扩大合作,计划培训3万名员工使用Claude,标志着企业AI战略新方向。面对复杂模型生态、治理要求和人才短缺,咨询公司正成为关键的AI系统集成商。研究显示95%的企业AI试点项目零回报,尽管投资300-400亿美元。集成商能填补技术能力与实际应用间的鸿沟,但也带来新的依赖风险。CIO需要在利用外部合作伙伴的同时保持内部能力建设和架构自主权。
字节跳动等机构联合发布GAR技术,让AI能同时理解图像的全局和局部信息,实现对多个区域间复杂关系的准确分析。该技术通过RoI对齐特征重放方法,在保持全局视野的同时提取精确细节,在多项测试中表现出色,甚至在某些指标上超越了体积更大的模型,为AI视觉理解能力带来重要突破。
IDC发布2025年第三季度全球企业级存储系统市场追踪报告,显示存储市场同比增长2.1%至近80亿美元。戴尔以22.7%市场份额居首,华为以12%份额位列第二且增长9.5%。全闪存阵列表现突出增长17.6%,中端存储系统增长8.1%。地域方面,日本、加拿大和欧洲表现最佳,而美国市场下降9.9%。IDC预计随着AI应用渗透,企业对闪存存储需求将持续增长。
Inclusion AI团队推出首个开源万亿参数思维模型Ring-1T,通过IcePop、C3PO++和ASystem三项核心技术突破,解决了超大规模强化学习训练的稳定性和效率难题。该模型在AIME-2025获得93.4分,IMO-2025达到银牌水平,CodeForces获得2088分,展现出卓越的数学推理和编程能力,为AI推理能力发展树立了新的里程碑。