Dojo
最新
最佳
搜索
订阅
解道Jdon
架构设计
领域驱动
DDD介绍
DDD专辑
战略建模
领域语言UL
领域事件
商业分析
工作流BPM
规则引擎
架构师观点
数据工程
产品经理
系统思维
微服务
微服务介绍
微服务专辑
模块化设计
SOA
API设计
clean架构
SpringBoot
分布式事务
分布式架构
Kubernetes
DevOps
编程设计
GoF设计模式
模式专辑
面向对象
函数式编程
编程语言比较
编程工具比较
形式逻辑
前端编程
Reactive编程
Jdon框架
Rust语言
ChatGPT
Web3
模因梗
幽默梗
程序员吐槽
面试技巧
Java入门
数字化转型
认知偏差
道德经
GitHub工具
更多话题
使用人工智能从大脑活动中解码语音 - Meta
22-09-04
banq
Meta AI 研究人员表示,他们开发了一种 AI 模型,无需手术即可帮助从人的大脑活动中解码语音。Meta 表示,其工作旨在帮助科学家加速使用人工智能来更好地了解大脑。这是朝着可以从非侵入性脑记录中以高精度解码语言的技术迈出的一步,从而改善了患有创伤性脑损伤且无法有效沟通的人们的生活:
该方法依赖于无创脑部扫描,例如脑电图、EEG 和脑磁图、MEG。这些从外部扫描大脑,这意味着无需手术,并提供其活动的快照
EEG 和 MEG 的问题在于它们非常“嘈杂”,因此很难准确判断一个人在想什么
为了解决这个问题,Facebook AI 研究实验室 (FAIR) 的科学家们使用了机器学习算法。他们使用 FAIR 自己的开源 AI 模型 wave2vec 2.0 “清理”了噪音,用于自动语音识别
研究人员利用开源 EEG 和 MEG 数据集,其中包含 169 名健康志愿者的 150 多个小时的录音,他们正在听有声读物和英语和荷兰语的孤立句子
该数据训练了 wave2vec 2.0 模型,以更好地挑选出人们听到的单词。只需几秒钟的大脑活动,该模型就可以推断出这个人最有可能听到的词
根据 Meta 的说法,它可以以高达 73% 的“前 10”准确率对 793 个单词解码来自大脑扫描的相应语音片段
详细点击标题
机器学习