俄罗斯一个研究小组最近发表的一篇研究论文声称,人工智能模型已能读取并显示人的所见所闻。在论文所附的视频中,一个头上戴着 EEG 帽的人坐在监视器前观看短视频,另一台监视器显示出与第一台监视器上的视频相似的图像。该项研究表明 AI 可以从 EEG 数据中读取人的思想。
研究人员展示了五类视频:抽象形状、瀑布、人脸、运动机制和驾驶员视角下的运动。他们在实验中证明,这些视频类别的脑电图数据是不同的。然后他们训练 AI 从 EEG 数据中读取视频类别,并生成符合该类别的图像。如果一个人看瀑布视频,AI 则会显示瀑布图像。
论文强调,这是一个重建图像类别的研究,而不是阅读思想研究。研究人员原本只是期望 AI 能显示符合受试人员看到的视频类别的图像,而不是从大脑数据重建图像。但结果超出了他们的预想。“每对图像均显示对象观看的一段视频以及由神经网络基于对象的大脑活动生成的相应图像。”论文写道。
论文还引用作者之一格里戈里·拉什科夫话说:“我们没想到脑电图能包含足够的信息来重建一个人观察到的部分图像,但事实证明这是完全可能的。”
【数字叙事 黎雾】