在NeurIPS大会上发布的两个数据集可助编目数十种语言
在近日举行的NeurIPS大会上,发布了两册英特尔提供支持的关于口语数据集的白皮书,其中,《人的语言》主要涉及到“自动语音识别”任务,另一册——《多语种口语语料库》则涵盖“关键词识别”。这两个项目的数据集都贡献了大量丰富的音频数据,且每个数据集在同类中都拥有最大的可用体量。
《多语种口语语料库》由英特尔软件与先进技术事业部(SATG)的机器学习工程师Keith Achorn参与撰写。Keith在英特尔社区网站的博客中讲述了自己参与该项目的经历。
在ML Commons 的支持下,“人的语言”和“多语种口语语料库”于2018年开始启动,该项目旨在识别世界上最常用的 50 种语言并统一到单一的数据集中,从而使这些数据得到有效利用。该项目小组成员来自英特尔、哈佛大学、阿里巴巴、甲骨文、Landing AI、密歇根大学、谷歌、百度等。
在当今多元化、国际化、多语言的工作环境中,准确转录和翻译的能力愈发重要。通过使用以上数据集,计算机可以“听到”口语单词,并自动生成文本或译文。
这两个项目都运用了“多样化语音”,这意味着它们可以更好地展现自然环境音,如背景噪音、非正式语言模式、录音设备混音以及其他声学环境等。这与诸如有声读物之类的高度受控的内容不同,后者产生的声音更加“纯净”。然而,在实际应用中,多样化语音训练有助于提高识别的准确性。
“人的语言”项目内含数万小时的对话音频。如今,它是世界上最大的、可免费下载的、用于学术和商用的英语语音识别数据集之一。
“多语种口语语料库”是一个音频语音数据集,不仅拥有超过30万个关键字的数十种语言,能够通过智能设备访问,还涵盖了50多亿用户的日常对话,有助于推动全球范围内受众语音应用的研发。
这两个数据集都将提供给广泛的用户进行应用,它们包括商用在内的授权许可条款都相对较为宽松。
好文章,需要你的鼓励
谷歌推出类似苹果私有云计算的新平台,让用户在享受先进AI功能的同时保护数据隐私。该平台将复杂AI请求转移到云端处理,确保敏感数据仅用户可见,连谷歌也无法访问。随着AI工具需要更强计算能力,这一方案平衡了隐私保护与性能需求。Pixel 10手机将获得更智能的Magic Cue建议和更多语言的录音转录功能。
StepFun团队开发了革命性的Mind-Paced Speaking技术,让AI聊天机器人首次具备边思考边说话的能力。通过双大脑架构,分别负责思考和表达的两个AI模型协同工作,实现零延迟响应的同时保持92.8%的高准确率。这项技术模拟人类大脑机制,让AI对话变得自然流畅,为人机交互开创了全新范式。
OpenAI宣布推出GPT-5的首个重大升级版本GPT-5.1,包含Instant和Thinking两个变体。新模型在对话风格上更加自然温暖,具备自适应推理能力,能根据问题复杂度调整思考深度。GPT-5.1提供八种个性化对话模式供用户选择,减少专业术语使用,提升易理解性。该升级旨在解决GPT-5发布后用户反馈的不足,将逐步向订阅用户推出。
微软和哥伦比亚大学联合开发了名为Dyna-Mind的AI训练框架,通过两阶段训练教会AI进行"心理模拟"。该框架让AI学会在行动前进行虚拟试错,显著提升了在复杂规划任务中的表现。在推箱子、虚拟家庭任务和安卓设备操作等测试中,成功率分别达到82.5%、92.5%和40.7%,远超传统方法。这项研究为开发更智能的AI助手奠定了基础。