谷歌工程师Blake Lemoine认为谷歌的对话 AI 系统 LaMDA 有自我,甚至提出应给予 LaMDA 以人的身份。面对 Lemoine 的疯狂想法,牛津大学的哲学教授、《隐私即权力》(2021)一书的作者 Carissa Véliz 表示,“将感知归因于任何可以使用语言的东西是一个类别错误”。他指出,腹语表演者可以让假人说它有感觉,但表演即使再令人信服也只是表演。
在《为什么 LAMDA 与人完全不同》(2022 年 6 月 21 日)一文中,Véliz 写道:
像 LaMDA 这样的人工智能系统不像我们那样学习语言。他们的看护人不会喂它吃脆甜的水果,而是反复告诉它“这是苹果”。语言系统扫描互联网上的数万亿个单词。它们对维基百科、Reddit、报纸、社交媒体和论坛等网页上的书面帖子进行统计分析。它们的主要工作是预测语言……
LaMDA 不是在报告它的经验,而是在报告我们的经验。语言模型通过统计分析人类在线使用单词的方式,并在此基础上重现常见的语言模式。
按照 Véliz 的描述,如果 LaMDA 听起来不像人类,那将比它听起来像更不寻常,因为 LaMDA 没有其他信息来源。因此,在 Véliz 看来,将 LaMDA 视为一个人,就像想象镜子中的影像是另一个过着平行生活的人。
Véliz 还警告说,人们更有可能认为像 LaMDA 这样的聊天机器人在未来是有感知的。但这并不是因为聊天机器人变得有感知力,而是因为,我们写的关于感知人工智能的文章越多,一个复杂的聊天机器人程序就向我们反馈越多的想法和信念。