Meta AI 研究人员表示,他们开发了一种 AI 模型,无需手术即可帮助从人的大脑活动中解码语音。Meta 表示,其工作旨在帮助科学家加速使用人工智能来更好地了解大脑。这是朝着可以从非侵入性脑记录中以高精度解码语言的技术迈出的一步,从而改善了患有创伤性脑损伤且无法有效沟通的人们的生活:
- 该方法依赖于无创脑部扫描,例如脑电图、EEG 和脑磁图、MEG。这些从外部扫描大脑,这意味着无需手术,并提供其活动的快照
- EEG 和 MEG 的问题在于它们非常“嘈杂”,因此很难准确判断一个人在想什么
- 为了解决这个问题,Facebook AI 研究实验室 (FAIR) 的科学家们使用了机器学习算法。他们使用 FAIR 自己的开源 AI 模型 wave2vec 2.0 “清理”了噪音,用于自动语音识别
- 研究人员利用开源 EEG 和 MEG 数据集,其中包含 169 名健康志愿者的 150 多个小时的录音,他们正在听有声读物和英语和荷兰语的孤立句子
- 该数据训练了 wave2vec 2.0 模型,以更好地挑选出人们听到的单词。只需几秒钟的大脑活动,该模型就可以推断出这个人最有可能听到的词
- 根据 Meta 的说法,它可以以高达 73% 的“前 10”准确率对 793 个单词解码来自大脑扫描的相应语音片段