机器人可以说一些令人毛骨悚然的东西,但“精神病AI”仍是虚构

麻省理工学院的机器人诺曼(Norman)被新闻描述成一个“精神病 AI”,因为“不管它看到的是什么,它都能看到死亡”。确实,它在接受训练后用墨迹呈现出的反应——对各种各样的死亡和悲剧提出了令人不安的看法——所达到的水平很让人担心,有人甚至通过电子邮件向它发送了这样的信息:“突破你已经适应的东西,找到激情、爱、宽恕和希望,为了你更美好的未来。”

像诺曼这样的技术之所以会在公众中引起恐惧,是因为它们体现了人工智能有可能让人类转向黑暗和扭曲。但我们不太可能在短时间内面对人类与强大的精神病 AI 之间的斗争。虽然 AI 已经有了“血液”,但还有很长的路要走,直到我们创造出拥有无法控制的黑暗思想并付诸行动的 AI。

AI 到底看到了什么?

当训练一个神经网络(特别是在分类训练中,诺曼似乎就是这样的例子),开发人员会向它展示成千上万的图像及其标签。AI 能够消化这些,并形成某种相关性。用人工智能术语来说,就是所有这些都被转换成了数字和概率。机器输出的结果是程序发现它“更有可能”——同样是一组数字,当被“呈现”时,我们会看到它们形成了单词和句子。人工智能还懂得哪些词与其他词更接近,从而会形成一个对人类更有意义的恰当的句子。

但对 AI 来说,它们只是分数。当 Facebook 的开发者们在他们的机器人中错过这个组件时,人工智能阴谋论再次成为新闻焦点。故事是这样的:“聊天机器人发展了他们自己的语言”,因为 AIs 产生的句子没有任何意义。但从数学的角度来看,它们是有意义的。

同样的道理也适用于谷歌的人工智能,受过 3000 本爱情小说的培训,它吐出“我想杀了他”, 这让阴谋论者再次愤怒起来。而事实上,它只是在构造句子以填补开始和结束的感情之间的空隙。

我们自己的反射

在最好的情况下,人工智能可以看到我们如何使用我们的语言。TensorFlow 的 Word2Vec 项目是一个很好的例子,它创建了一个可视化的单词表示,其中类似的单词聚集在一起。

在这里,人工智能已经检测到在“死亡”这个词附近通常使用的其他词。这些数学模型实际上揭示了我们自己的文化及其偏见。诺曼试图创造一种故意偏颇的人工智能,以揭示如果数据研究人员在给它们提供的数据前未做正确的准备,算法会如何出错。即使有最好的意图,当“人类的操作系统”更倾向于白人男性时,它所训练的 AI 也很难探测到黑人女性。AI 已经完成了它应该做的事情,但在它的方式中,它也揭示了我们自己的缺点。

AI 所看到的只是数字。它不理解“死亡”,也不理解“爱”。它没有任何情感,AI 最接近人类的“记忆”是我们训练它的数据。在人类的记忆中,每一件作品都有视觉、触觉、听觉和其他信息,丰富了我们的体验——更不用说我们在记忆形成时所处的情感状态了。在我们学习语言的过程中,随着我们学习单词的意思,这种感知就会进一步加深,这些单词形成了长链,用独特的句子来扩展经验。但是 AI 只有一个标签附着在它所感知的东西上。在接近真正的精神病患者之前,它还有很长的路要走。从这个意义上说,诺曼并不比沃森或爱因斯坦更像精神病。

【数字叙事 原作:David Petersson;编译:Lighting】

有问题和想法?与数字诗人讨论、交流,以获得更多的信息、意见。

赞赏
lighting
lighting
笛卡尔的“思”正在进入明斯基的“情感机器”
本文系数字叙事原创(编译)内容,未经授权,不得用于商业目的,非商业转载须注明来源并加回链。

订阅

受欢迎的

相关文章
Related