当前位置:首页 > 智能 > 人工智能

机器人要崛起:人工智能将来能够直接解读人脑电波

人工智能 2019-02-12 09:48:06

来源:新浪网科技   责任编辑:禹锋

导语

神经科学家正在教导计算机直接从人脑中读出单词。近日,《科学》(Science)杂志的专职撰稿人凯利·塞维克(Kelly Servick)报道了预印本网站bioRxiv发表的3篇论文。

  神经科学家正在教导计算机直接从人脑中读出单词。近日,《科学》(Science)杂志的专职撰稿人凯利·塞维克(Kelly Servick)报道了预印本网站bioRxiv发表的3篇论文。在论文中,3个研究团队各自展示了他们如何将神经活动记录解码成语音。在这3个研究中,研究人员在进行脑外科手术的患者大脑上直接放置了电极,当他们听取语音或者大声朗读文字时,这些电极就记录神经元的活动。接着,研究人员尝试解读患者听到或说出的内容,患者大脑的电活动都转化成了某种程度上能够理解的声音文件。

  第一篇论文发表在bioRxiv上,描述了研究人员向正在进行脑外科手术的癫痫患者播放语音的实验。需要指出的是,实验中采集的神经活动记录必须非常详细,才能用于解读。而且这种详细的程度必须在十分罕见的条件(比如脑外科手术)下才能达到,此时大脑暴露在空气中,电极直接放在上面。

  当患者听取声音文件时,研究人员记录了患者大脑中处理声音部分的神经元活动。他们尝试了多种方法将神经元活动数据转化成语音,发现“深度学习”的效果最佳。深度学习是机器学习的分支,计算机可以在无人管理的情况下,通过深度学习来解决问题。当研究人员通过一个合成人类声音的声码器播放转化结果时,由11个听众组成的小组解读这些词的准确率是75%。

  第二篇论文采用的是正在进行切除脑肿瘤手术的患者的神经元记录。当患者大声朗读单音节词时,研究人员记录了他们嘴里发出的声音,以及他们大脑中发音区域的神经元活动。研究人员没有训练计算机深度学习每一位患者的语音,而是教导人工神经网络将神经记录转化成音频文件。结果显示,这些音频文件至少在相当程度上是可以理解的,并且类似麦克风录音的效果。以上这两项研究的声音文件都可以在网上下载。

  第三篇论文采用的神经元活动记录来自大脑中将决定说出的特定单词转化为肌肉运动的区域。尽管目前该实验的记录还没有在网上公布,但研究人员报道称,他们成功重建了整个语句(也是在癫痫患者进行脑外科手术时记录的),而且听到这些语句的人在多项选择测试(共有10个选项)中准确进行解释的成功率是83%。该实验的方法依赖于识别出生成单个音节(而非整个单词)所涉及的模式。

  所有这些实验的目标都是相同的,即有朝一日使失去说话能力(由于肌萎缩侧索硬化症或类似疾病)的人通过脑机界面来说话。不过,目前这些应用的科学基础还未达到。

  据《科学》杂志的报道,解读一个人只在头脑里想象说话的神经元活动模式,要比解读一个人聆听或发出语音的神经模式复杂得多。不过,第二篇论文的作者表示,解读一个人想象话说时的大脑活动也许是可能的。

  必须说明的是,这些都还只是很小型的研究。第一篇论文采用的只是来自5名患者的数据,而第二篇论文采用数据来自6名患者,第三篇则只有3名患者。这些研究中记录的神经元活动都没有持续超过1个小时。尽管如此,科学仍然在向前发展。直接连接到大脑的人工语音设备似乎已经有了真正的可能性,也许不远的将来我们就将见证它的诞生。

  神经科学家正在教导计算机直接从人脑中读出单词。近日,《科学》(Science)杂志的专职撰稿人凯利·塞维克(Kelly Servick)报道了预印本网站bioRxiv发表的3篇论文。在论文中,3个研究团队各自展示了他们如何将神经活动记录解码成语音。在这3个研究中,研究人员在进行脑外科手术的患者大脑上直接放置了电极,当他们听取语音或者大声朗读文字时,这些电极就记录神经元的活动。接着,研究人员尝试解读患者听到或说出的内容,患者大脑的电活动都转化成了某种程度上能够理解的声音文件。

  第一篇论文发表在bioRxiv上,描述了研究人员向正在进行脑外科手术的癫痫患者播放语音的实验。需要指出的是,实验中采集的神经活动记录必须非常详细,才能用于解读。而且这种详细的程度必须在十分罕见的条件(比如脑外科手术)下才能达到,此时大脑暴露在空气中,电极直接放在上面。

  当患者听取声音文件时,研究人员记录了患者大脑中处理声音部分的神经元活动。他们尝试了多种方法将神经元活动数据转化成语音,发现“深度学习”的效果最佳。深度学习是机器学习的分支,计算机可以在无人管理的情况下,通过深度学习来解决问题。当研究人员通过一个合成人类声音的声码器播放转化结果时,由11个听众组成的小组解读这些词的准确率是75%。

  第二篇论文采用的是正在进行切除脑肿瘤手术的患者的神经元记录。当患者大声朗读单音节词时,研究人员记录了他们嘴里发出的声音,以及他们大脑中发音区域的神经元活动。研究人员没有训练计算机深度学习每一位患者的语音,而是教导人工神经网络将神经记录转化成音频文件。结果显示,这些音频文件至少在相当程度上是可以理解的,并且类似麦克风录音的效果。以上这两项研究的声音文件都可以在网上下载。

  第三篇论文采用的神经元活动记录来自大脑中将决定说出的特定单词转化为肌肉运动的区域。尽管目前该实验的记录还没有在网上公布,但研究人员报道称,他们成功重建了整个语句(也是在癫痫患者进行脑外科手术时记录的),而且听到这些语句的人在多项选择测试(共有10个选项)中准确进行解释的成功率是83%。该实验的方法依赖于识别出生成单个音节(而非整个单词)所涉及的模式。

  所有这些实验的目标都是相同的,即有朝一日使失去说话能力(由于肌萎缩侧索硬化症或类似疾病)的人通过脑机界面来说话。不过,目前这些应用的科学基础还未达到。

  据《科学》杂志的报道,解读一个人只在头脑里想象说话的神经元活动模式,要比解读一个人聆听或发出语音的神经模式复杂得多。不过,第二篇论文的作者表示,解读一个人想象话说时的大脑活动也许是可能的。

  必须说明的是,这些都还只是很小型的研究。第一篇论文采用的只是来自5名患者的数据,而第二篇论文采用数据来自6名患者,第三篇则只有3名患者。这些研究中记录的神经元活动都没有持续超过1个小时。尽管如此,科学仍然在向前发展。直接连接到大脑的人工语音设备似乎已经有了真正的可能性,也许不远的将来我们就将见证它的诞生。

机器人要崛起:人工智能将来能够直接解读人脑电波

免责声明:以上内容为本网转自其它媒体,相关信息仅为传递更多信息之目的,不代表本网观点、亦不代表本网站赞同其观点或证实其内容的真实性。如有侵权请联系本网删除。
Top