当人文科学被排除在人工智能研究之外时,会发生什么?数据科学研究者和作家道格·罗斯(Doug Rose)在最近的一次访谈中举了几个例子,并分享了他的观点。他认为,人工智能研究需要人文学科的更多参与。
罗斯曾在一篇文章中研究了微软失败的青少年 Tay 聊天机器人实验,该机器人在发布后一天就变成了亲纳粹分子。“我很惊讶工程师们对这个结果感到惊讶。”他说,“Tay.AI 的设计初衷是回应人们在 Twitter 上说的话,她这样做是为了让自己看起来更聪明。这有点像你在小学时看到的,孩子们会重复那些酷孩子说的话,努力让他们看起来更容易被别人接受。”
然而,罗斯指出,与聊天机器人相比,即使在这个年龄,孩子们在人文学科方面也有很好的背景,他们了解文化,并有一种可被接受的规范。“Tay 不具备这些东西,所以她只花了几个小时就变成了一个纳粹分子。”他说。
工程师们只专注于能力。“他们想要创建一个能够实时分析海量数据的机器人,”罗斯说。“然后,他们会选择数据集的‘趋势’部分,并通过一些自然语言处理来重新播放。”
如何才能避免这样的事故呢?“人类学家或文化专家很容易就能预测到重新混音和重新播出 Twitter 趋势的结果。” 罗斯说,“据我所知,他们没有坐在桌子前。这是一个工程项目,所以它得到了一个工程设计的结果。Tay 没有什么人性,因为在设计她房间里没有人研究人类的行为。”
Tay 没有造成任何真正的伤害。但人工智能正在进入一些重要的领域,在这些领域,错误可能会带来灾难性的后果。
罗斯曾将佛罗里达警方的犯罪预防解决方案作为案例进行研究。为警方所用软件提供动力的机器学习算法被认为可以预测重复犯罪的人的风险,但最终得出的结果不恰当地倾向于给非裔美国人贴上“高危罪犯”的标签。
“工程师们没有犯任何技术上的错误,”罗斯解释说。“机器学习算法的训练集反映了来自佛罗里达州布劳沃德县的警察部门和陪审员的数据。这些人工智能代理反映了人类同行的现实。”
Tay 和佛罗里达警方的故事都表明人工智能应是一项综合性的研究,就像人类对自身的研究一样。将人工智能视为纯粹的工程学研究,带来的只能是“机器”,而非“人”。因此,罗斯认为,我们必须跳出固有思维和工程学圈子,面向更多的领域,首先从人文学科那里获得关于人类行为的有用的解释。
“人工智能本身并不是核心价值主张。”他说,“真正的价值在于提升和模仿人类的行为。不仅仅是我们的原始数据,还有我们的抱负、目的和意图。”
【数字叙事 Lighting】
[…] 此前的一些研究揭示,AI 机器人的偏见是由算法偏差造成的,而算法偏差根源在反映人类偏见的数据上。因此,人类要纠正机器人的偏见,得先修正自己。这不仅是技术问题,更是社会问题。因此,有研究者指出,人工智能研究需要人文学科的更多参与。 […]