您的位置:首页>科学>

新的AI系统将人脑信号转换为文本的准确性高达97%

世界只是在适应亚马逊和谷歌等公司提供的虚拟助手的功能和先进性,与几年前相比,该技术可以以令人毛骨悚然的精度解码我们的语音。

然而,实际上,一个更令人印象深刻且令人难以置信的里程碑可能就在眼前,这使得语音识别似乎几乎像儿童游戏:人工智能(AI)系统可以将我们的大脑活动转化为完整的文本,而不会听到说出一个字。

这不完全是科幻小说。从动物模型到人类参与者,脑机接口在过去的几十年中得到了长足的发展,实际上已经在尝试这种事情。

加利福尼亚大学旧金山分校的研究人员在一项新研究中解释说,这还不够准确。

为了看看他们是否可以改善这一状况,由加州大学旧金山分校张氏实验室的神经外科医生爱德华·张领导的研究小组使用一种新的方法来解码皮层电图:皮层活动期间发生的电脉冲的记录由植入大脑的电极采集。

在这项研究中,四名癫痫患者戴上了植入物以监测由他们的医疗状况引起的癫痫发作,加州大学旧金山分校的团队进行了一项辅助实验:让参与者朗读并重复一些固定的句子,而电极记录他们的大脑活动在运动中。

然后,将这些数据输入到神经网络中,该神经网络会根据实验的音频记录来分析与某些语音签名(例如元音,辅音或嘴巴动作)相对应的大脑活动模式。

此后,另一个神经网络解码了这些表示形式(从重复的30–50个口头句子收集而来),并仅基于单词的皮层签名,使用它来尝试预测所说的内容。

在最佳状态下,该系统产生了一个误码率(WER),其中只有3%的参与者将脑信号转换为文本-这可能与AI所获得的阅读力差不多,至少在严格意义上讲确定的实验条件。

在他们的论文中,团队详细介绍了参与者所说的参考句子的许多示例,以及网络生成的“预测”,有时是错误的,但并非总是如此。但是,当错误显而易见时,它们似乎与人耳听到的语音结果有很大不同(这可能是引入AI的有限数据集的副作用)。

免责声明:本文由用户上传,如有侵权请联系删除!