日本京都大学信息学研究科神谷之康教授与国际电气通信基础技术研究所(ATR)堀川友慈主任研究员所领导的共同研究小组,成功地研发了通过将大脑的活动类型转换为人工智能模型信号,来推测出人看见或想象的物体的技术,是“读心术”的一个重要进步。论文于22日发表于英国科学期刊《Nature Communications》。
![](https://img.haomeiwen.com/i3301278/7491fe66f2e80f04.png)
研究小组利用功能性磁共振成像(fMRI)测量人脑的活动类型,通过参照预先记录的类型的做法,成功地推断出了看到的是什么。不过,目前只能推测记录的类型中对应的物体。
这次研究用到的方法是,利用fMRI来测量大脑的活动类型,将其转换为人工智能中应用的深度学习模型(DNN)信号。将5人看或想象“鸭子”、“高礼帽”等东西时大脑的DNN信号,与预先处理网络上的大规模图像数据库得到的DNN信号进行参照,能够高概率地推断出所看或想象的物体。
神谷教授表示,这项研究也表明了大脑与DNN的信息处理有相似之处,这将有助于大脑与机械融合的新的智能系统的开发。
深度神经网络(DNN):也被称为深度学习,是人工智能领域的重要分支,根据麦卡锡(人工智能之父)的定义,人工智能是创造像人一样的智能机械的科学工程。目前DNN是许多现代AI应用的基础。自从DNN在语音识别和图像识别任务中展现出突破性的成果,使用DNN的应用数量呈爆炸式增加。这些DNN方法被大量应用在无人驾驶汽车,癌症检测,游戏AI等方面。在许多领域中,DNN目前的准确性已经超过人类。(来自网络)
网友评论