导读:人工智能设备又迈进一步:能读懂唇语。一种新型的语音合成器可以跳过语音记录,而直接将说话者嘴部动作转换为语句。
网易科技讯11月29日消息,据外媒报道,一种新型的语音合成器可以跳过语音记录,而直接将说话者嘴部动作转换为语句。
该设备能“观看”嘴唇的动作,并利用人工智能网络将它们转换成声音。
研究人员表示,该设备将能帮助声带麻痹患者发声,向脑机接口又迈进一步。
描述该装置的研究发表在《PLOS计算生物学》期刊上。
这项研究的作者来自法国国家科学研究中心。文章中提到,“这种语音合成器将人体主要语音发音器(舌,颚,口和嘴唇)的运动转换成智能语音。”
说话者的发言,以及嘴部各个部位的位置会被同时记录,然后通过人工智能网络算法进行分析。
此处使用的人工智能算法是基于人类大脑建模的深层神经网络(DNN)。算法设计针对偏复杂的模式识别。
该深层神经网络DNN通过测量舌头、下颚、软腭和嘴唇的协调动作(又称为”发音语音信号“)来识别嘴正在发音的某个词语。
作者解释道,DNN计算模型对这些测量的数据进行训练,将“发音语音信号”转换成“声学语音信号”。
作者提到,这项研究中,我们让用于训练DNN模型的用户,以及陌生新用户都来测试语音合成器的实时控制性能,从而评估它在是否能很好地成为脑机接口的一部分。
“语音脑机接口将能通过解码皮层的语言相关活动,实时控制语音合成器,从而帮助有严重发声障碍的人恢复交流。
为帮助连声道都无法震动的患者“说话”,科学家将必须掌握如何解码大脑信号,并将其翻译成语音。
使用人工智能来解码语音和语言已有先例。
谷歌不久前推出了多语言之间机器翻译系统。该系统被成为“Zero-Shot翻译系统“,并具有自我学习能力。它能将未学习过的两种语言翻译成一种已经学习过的语言 ——换言之,通过人工智能训练学习了如何实现X语言对Y语言的翻译后,系统就能立即自动掌握从X到Z语言的翻译。
Google Brain的博文把这项翻译技术称为神经机器翻译系统(Google Neural Machine Translation ,简称GNMT)。
精彩导读
热门资讯
- 华米Amazfit Cheetah/Pro手表渲染图曝光 配备圆形表盘
- 苹果Vision Pro摄像头不向第三方应用开放 以用户隐私为重
- 苹果Vision Pro头显电池曝光:4780毫安时,中国德赛制造
- 报告称Apple Watch去年销量5390万块 累计销量2.29亿块
- 消息称天猫精灵智能眼镜正测试大模型交互
- 苹果空间音频导航专利曝光 可通过改变声音位置等引导转向
- 苹果计划明年底在中国、日本等国家销售Vision Pro头显
- 2023年Q1印度可穿戴设备出货量超2510万台,同比增长80.9%
- 集邦咨询:预估VR/AR装置今年出货量跌至745万台 高速成长期将落在2025年
- 消息称苹果曾考虑为Vision Pro配备VR控制器,但最终放弃