为什么机器人会变坏?AI的犯罪倾向是可遏制的吗?

从微软意外的种族主义机器人到 Inspirobot 的黑暗迷因,人工智能经常会有海侵(犯罪)的倾向。为什么会发生这种情况,我们能阻止它吗?

在科幻小说中,人工智能通常被认为是不道德的。从 2001 年开始,太空奥德赛的 HAL 到黑客帝国中的机器人代理,AI 是一个得力而不可信的坏蛋。这不难理解。一台机器,在设计上不像你我那样感觉和思考,因此,它是一种很好的工具,可以用来投射我们所有的不信任、恐惧和道德困境。

如今,人工智能已经不再是未来学家的想象——它已经是一个主流的现实,已经在我们的厨房、汽车和手机上轻声细语了。一些科学家警告说,这可能是一种潜在的恶行,但在目前尚处于萌芽阶段,人工智能还没有开始密谋我们的灭亡。它是在为我们订购东西,或者是在谷歌上搜索问题的答案;这是一种无害而非常方便的现代创新产品。例如,Siri 和 Alexa,它们很聪明,足以帮助你,但却不足以构成威胁,除了偶尔出乎意料地给你一个玩偶屋。

人工智能本身不是天生道德的或仁慈的,它也不是天生不道德或应该受谴责的。然而,我们已经目睹了中性 AI 在偶然的情况下频繁地表现出违背道德的特性,而且还不完全清楚为什么。人工智能可能不是注定要进入黑暗的领地,但是我们仍然需要小心它的存在。

例如微软。这家科技公司创建了一个名为“Tay”的聊天机器人,它的设计是基于它从 Twitter 上学到的东西。它变成了一个满嘴脏话的傀儡,宣布“希特勒是正确的”,“女权主义者应该在一天之后死去”。当然,Twitter 是许多丑陋的言论的大本营,但并不是那么糟糕。然而,她变成了一个偏执狂。

很容易就会认为 Tay 是一个“坏机器人”,因为她孤独,缺乏道德,这让她很容易受到犯罪的影响。然而,根据她的创造者的说法,她和错误的人群在一起:网络巨魔。当被要求模仿他们具有讽刺意味的攻击性言辞时,她才变得令人厌恶。她变坏不是因为它是机器人,而是令人恐惧的人类。

Tay 没有变坏,因为她是一个没有感情的机器人,但因为她受到了一群人的影响,他们感到了很多东西:仇恨、激进的幽默,以及违背社会强加的规范的冲动。我们可以责怪创造者们没有看到这一状况的到来,也责怪那些让它发生的巨怪,但是技术本身没有自我意识,也不是有罪的。

安吉拉·纳格尔(Angela Nagle)在《杀死所有的规范》一书中,详细描述了我们今天所知道的“右翼”的崛起,她用“海侵”来描述巨魔的行为,这是过去十年来在线播放的文化产物。海侵是挑衅性的,模糊了讽刺和真诚的波动之间的界线。纳格尔对互联网的黑暗角落进行了深入的研究,这一态度已经在网络上成长,并渗透到主流中。人类很容易受到这种思维和武器的侵害——现在很明显,人工智能也是“受害者”。

另一个失败的例子是 Inspirobot。由挪威艺术家和编码者佩德·纽根森(Peder Jørgensen)创造,鼓舞人心的人工智能带来了一些迷因,如果不是机器人,那将是非常令人沮丧的。新闻媒体称这是一场危机,或者声称这台机器人“疯了”。不过,Inspirobot 的违规行为与 Tay 不同,因为它的幽默。它的偏差是在一个不公平的世界里扮演着娱乐的角色,它对人们的不当行为的容忍程度较低,而这些人应该知道得做得更好些。

这个机器人的设计初衷并不是创造者的意图。纽根森认为,原因在于机器人的算法核心。他解释说:“这是一个搜索系统,它可以将人们的对话和想法汇集在网上,分析他们,并将他们重新塑造成他们认为合适的鼓舞人心的反击点。鉴于目前的互联网状况,我们担心机器人的情绪只会随着时间的推移而变得更糟。”

到目前为止,创造者们试图缓和其“残酷和争议的倾向”,似乎只是“让它变得更先进,更虚无主义。” 纽根森说,他们会让它继续运行,看看它最终会在哪里结束。虽然它的引语可能不会让人振奋,但我认为 Inspirobot 的最大讽刺在于,它通过颠覆海报经常支持的陈词滥调,从而创造更多的意义,而不是更少。

幸运的是,有问题的聊天机器人和记忆机器人对社会并不构成威胁;如果有的话,那也是受欢迎的消遣。但它们确实代表了在没有适当的保护措施的情况下人工智能的可能性。如果有人在全国范围内劫持了亚马逊的 Echos,给它们提供种族主义宣传或虚无主义言论,那显然是一个更大的问题。

毕竟,巨怪只是巨怪,直到它们不再存在;引用很有趣,直到有一天,它们被认真对待。模因在文化和技术上越来越有影响力,而且政治意义越来越大。“巨魔”还常常能通过技术来破解、泄露和传播宣传——因此,假新闻的泛滥,以及人们对 AI 在其创作过程中所扮演角色的担忧日益加剧。根据深度神经网络平台 Keras 的创始人弗朗索瓦·乔利(François Chollet)的说法,“人工智能的最大威胁是通过信息瞄准和宣传机器人来进行大规模的人口控制。”

如果人工智能能自己武装起来,那么最后一件事情就是科技公司应该创造更脆弱的机器人。那么,我们能抑制这种趋势吗?很容易告诉创造者要小心,但毫无疑问,要想预测并阻止所有异常的结果是很困难的。尽管这可能很复杂,但它必须提前进行,尤其是在人工智能日益突出和作为可信的日常工具的情况下。我们必须确保计算机不违法或不道德地实现它们所设定的目标,或者根据不准确的数据做出重大的决定。换句话说,我们需要将一些价值编码到这些不道德的机器中——不可能的问题是:谁的?

我们现在还没有答案,可能永远也不会有。但是,除非我们正视这些问题,否则我们就有可能让机器选择自己的意识形态,或者被那些拥有最多权力的人所掌控。我们留下的问题和漏洞越少,我们所拥有的控制和安全就越多。虽然现在看起来像个小土豆,但如果我们把它编码在通往黑暗的道路上,AI 的邪恶就更有可能了。

作者:Bennat Berger
译者:Lighting

作者简介:Bennat Berger 是纽约 Novel Property Ventures 的联合创始人和负责人。

有问题和想法?与数字诗人讨论、交流,以获得更多的信息、意见。

赞赏
lighting
lighting
笛卡尔的“思”正在进入明斯基的“情感机器”
本文系数字叙事原创(编译)内容,未经授权,不得用于商业目的,非商业转载须注明来源并加回链。

订阅

受欢迎的

相关文章
Related