加入收藏 | 设为首页 | 会员中心 | 我要投稿 云计算网_泰州站长网 (http://www.0523zz.com/)- 视觉智能、AI应用、CDN、行业物联网、智能数字人!
当前位置: 首页 > 站长资讯 > 评论 > 正文

机器学习实现了脑机语言翻译,距离“意念交流”还有多远?

发布时间:2020-05-07 17:47:34 所属栏目:评论 来源:站长网
导读:副标题#e# 在《三体》当中,大刘为三体文明设计了一种“思考即说话”的意念交流方式。在严酷的三体环境下,三体人正是依靠这种高效无误的意念交流方式,实现了知识的无障碍共享、理性决策的高度统一,才能创造出如此高度发达的文明成果和整齐划一的社会体制

那么,这项技术最靠谱的实际应用场景就是针对那些失去语言能力或写字能力的患病人群了。事实上研究者的出发点正是帮助因为中风偏瘫、渐冻症或者其他因神经系统疾病而丧失语言功能和沟通能力的人们,恢复语言沟通能力。而AI脑机语言翻译,就成为他们重新获得与世界沟通的工具。

机器学习实现了脑机语言翻译,距离“意念交流”还有多远?

(脑控打字)

在这项技术实现之前,帮助失语者沟通的主要脑机接口技术就是“脑控打字”,也就是通过采集脑信号,控制光标选择字母,然后组成单词后输出。这个领域做到最好效果的Facebook也只能做到每分钟最多打8个单词。

在脑控打字难以突破效率难关的情况下,AI脑机语言翻译可以直接完成脑电波信号到语言转化,效率一下子提高到了正常人的语速水平。这让失语者进行语言输出产生了飞跃的进步。

但现实问题仍然存在,因为这些测试者都是可以正常说话的,那么从他们身上采集数据训练而成的AI算法,是否可以应用到中风病人或者渐冻人身上呢?

正如我们上面所述,每个人的脑电波的信号采集可能存在一些差异,那么AI算法可能会因人而异,因此很难进行不同人之间的迁移。

那么就目前来说,只能是在有中风或渐冻症发作前或严重前,提前采集他们的脑电波信号,形成专属的AI翻译模型,才可能真正帮助患者。

脑机语言翻译都来了,那“意念交流”还有多远?

相较于我们习以为常的AI语音识别技术,AI脑机语言翻译看起来就已经非常令人惊叹了,那么要是达到用“意念交流”的脑脑交互的水平,那就有点天方夜谭的感觉了。

所谓的脑脑交互,那就是不再借助语言而直接依靠脑电波信号进行人际之间的沟通。这种就类似于三体人的思想共享,《阿凡达》里的人兽联机的技术。

一般来说,我们通过语言传输大脑信息,必然就存在着信息缺失、传输损耗以及效率低下的问题。翻译成人话就是,我们经常词不达意、左耳朵进右耳朵出,写篇文章好几天,聊个天就大半天过去。

脑脑交互则可以大幅提升人们之间交流的速度和信息量,能够保留和传输真实无损的大脑信息,避免误会,从而根本改变人类的协作方式。

脑脑交互并非完全的空想,现在也有一些基础的实验证实了这一可能性。比如2018年华盛顿大学,通过以下实验,让三个相互隔离的人带上了脑电图头盔这种非侵入式脑机设备,纯靠看和想,共同协作,来完成俄罗斯方块游戏。其中2个人负责观察底部情况和下落的方块形状,操控手柄的人则完全不知道状况,只能让这两个人产生脑电波信号,通过一种叫TMS的磁刺激方式来传递信息给操控者的大脑,让其大脑产生操作的指令。

经过5组不同的实验中,这种脑脑交互传达信息的准确率达到了81.25%。虽然还远远达不到人类之间传输信息需要的准确率和复杂度,但是这一实验带来脑脑交互的一种可能性。

但是可能性并不意味着现实性。这一点可能性之后仍然要面对大脑这个神秘黑箱制造的无尽难题。

机器学习实现了脑机语言翻译,距离“意念交流”还有多远?

(大脑皮层的语言分区)

目前,神经科学家已经知道人类的认知功能跟大脑的分区有关。研究人员可以通过对大脑神经活动的空间和时间信号进行高分辨率的数据采集,并配合机器学习算法将各种感知觉、运动、语言等高级认知功能所对应的神经信号互相分离出来。然后,可以实现像一些基本的脑机语言翻译这样的功能。

但是真正实现语言的解码翻译其实还要面临众多的困难。除了上面提到的声波信号对于每个人的脑区的刺激会因人而异之外,由于世界上有上万种的语言及方言,同一个语义在不同语言和方言下可能对应着不同的脑电波信号。甚至于不同年龄、不同成长环境,不同的情绪状态都有可能导致完全不同的脑电波信号。

此外,我们阅读文字也可以引发语言相关的脑电波活动,这肯定与语音刺激的反应又不相同。同样,不同的文字形态又会带来不同的脑电波信号模式。

也就是实验室状态下的无干扰的测试结果,极难应用到现实场景当中。要实现如此多复杂的脑电波语言翻译,其难度可能比全世界统一语言和文字的难度还大。那么想要实现后者,你们认为其可能性有多大呢?

那么,对于脑脑交互呢?我们是否可以先绕开语言翻译的这座大山,先去实现一些非语言化或者先于语言化的脑信号交互呢?比如,找到人类共同的一些辨识方向、情绪以及一些本能应激反应的脑电波信号,通过AI学习,实现信号的解码和共享。

这确实是有可能的,比如上面俄罗斯方块游戏的方向测试,以及在一些大鼠身上做的一些头部预期运动的信号的测试。但是,再复杂一些,就可能会必须要从脑电波信号转码为语言(语音或文字)来进行交互了,不然,这些探测到的脑电波数据就仅仅是一些物理信号,而不能具有任何的信息价值。

这可能还是应了那个哲学命题,如果意识不通过语言来表达,我们怎么意识到这个意识呢?

机器学习实现了脑机语言翻译,距离“意念交流”还有多远?

在一个需要靠讲故事来撑市值的新型产业,脑机语言翻译的实现,确实再一次给脑机接口的技术发展和商业化注入了一剂强心针。当然,我们也要冷静地看到这一技术仍然只具有“实验室”的成功价值,其用于商业化方面还需要脑机接入的材料成本、安全性,信号检测的准确度,翻译模型的迁移性和普适性等各个方面走向成熟。

至于我们试图去回答的“意念交流”的脑脑交互,大家其实也看到了,前途茫茫,困难依旧重重,甚至还有一座语言的大山横亘在人类面前。

毕竟,上帝也是靠“说”才创造了世界,而不是靠“想”创造的世界。


(编辑:云计算网_泰州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

推荐文章
    热点阅读