人工智能会思考吗?它很像那种懒惰、爱欺瞒的员工

人工智能能像我们人类一样思考吗?Daniel Shapiro 依照诺奖得主丹尼尔·卡尼曼在《思考快和慢》一书中阐述的人类大脑进行思考的快速思维和深思熟虑两个系统,对人工智能研发进行考察后指出,今天的人工智能系统学习快速和自动地思考,但没有很好地处理深思的方法,而其快速和自动的“思考”也像人一样喜欢偏见和爱走捷径。他将人工智能比作“那种懒惰、爱欺瞒的员工”,“会用简单的方法在每次考核中获得高分,即使这种方法是愚蠢的或错误的”。下面是他的文章的译文,原文标题:人工智能会“思考”吗?

科幻和科学似乎无法在我们应该如何看待人工智能的问题上达成一致。科幻想要把人工智能描绘成会思考的机器,而如今的企业将人工智能用于更平凡的任务,比如用机器人程序自动化填写表格或驾驶汽车。当在我们当前的人工智能技术水平上与这些人工智能接口交互时,我们人类倾向于把它们当作类似自动售货机的东西,而不是像人一样对待它们。为什么?因为把人工智能当成一个人(人格化)会导致直接的失望。今天的人工智能非常狭隘,因此,在这些系统能做什么和不能做什么之间的那条无形的界线上越走越远,就会导致诸如“我不明白”或“我还不能做那件事”之类的泛泛反应。尽管这项技术非常酷,但它还没有像你我想象那样的思考。

让我们来看看“思考”过程是如何运作的,并研究人工智能系统内部是如何进行不同类型的思考的。

首先,让我来说服你,思考是真实存在的。抛开所有关于意识的讨论,有一个非常有趣的哲学论点,那就是思维只是在你的大脑中计算。事实证明,这是经过调查的,我们可以得出一些结论,而不仅仅是想象思维可能是什么。诺贝尔奖得主丹尼尔·卡尼曼(Daniel Kahneman) 在《思考快和慢》一书中谈到了我们的大脑进行思考的两个系统:一个快速自动思维系统(系统 1)和一个较慢的深思熟虑的思维系统(系统 2)。就像我们有左脑和右脑,我们也有两种思维系统,它们相互交谈,形成我们看待世界的方式。思考不仅仅在于正确与否,还在于决策的两种方式。今天的人工智能系统学习快速和自动地思考(就像系统 1),但是作为一门科学的人工智能还没有很好地处理我们从系统 2 中得到的深思的方法。此外,今天的人工智能系统也会犯与系统 1 相同的错误,比如在学习过程中,偏见、捷径和一般化会被纳入“思考”机器中。在今天的人工智能中,没有一步一步的思考过程。例如,当思考的主要内容尚未准备就绪时,人工智能如何“思考”?

既然我们对思考有了更多的定义,那么我们如何才能制造出更像人类的人工智能呢?也许代表反馈循环会让我们得到像系统 2 那样的思考机器。事实证明,我们还没有攻克这个难题。人工智能模型不包含关于世界的常识。例如,我记得现代人工智能的奠基人 Yann Lecun 给出了一个例句“他走过门”(He walked through the door),并指出今天的人工智能模型并不能决定这意味着什么。有一种愚蠢的解释,我们可以得出这样的结论:一个人像超级英雄一样撞门而入,把门砸得粉碎。还有另一种解释,人打开门走过门道。不幸的是,没有常识,你不知道哪种情况更有可能发生。这向我们表明,即使是“快速思考”的情况下,使用我们今天可用的工具也会变得很糟糕。

我们生活在这样一个世界里,快速思考的人工智能是常态,而模型是在海量数据上缓慢训练的。你不能做一个比谷歌更好的搜索引擎的原因不是他们的搜索算法的保密性。相反,事实是他们有你没有的数据,从优秀的网络爬虫到在你周围驾驶的汽车上的摄像头。目前,人工智能的价值在于数据,而算法大多是免费和开源的。收集大量的数据并不一定足以确保一个功能正常工作。通常需要大量的人力劳动。未来,自学的思维算法本身可能代表了人工智能系统的大部分价值,但现在,你仍然需要数据来构建人工智能系统,而数据是项目中最有价值的部分。

思维与人的境遇并不容易分开,但我们人类也远非完美。一般来说,我们可能很聪明,但作为个人,我们天生就不擅长做统计。有证据表明人类有群体智慧,但是一群拿着干草叉和火把的人可能会改变你的想法。事实证明,我们经过几代人的努力才适应避免被狮子吃掉,而不是适应成为最擅长计算的人。我们人类的硬件中也内置了很多偏见和捷径。这是有据可查的。例如,相关性不是因果关系,但我们经常把它们混淆起来。我的一个同事有一个有趣的故事,在她获得本科数学学位的享有盛誉的大学,学生们会玩一个叫《stats chicken》(统计鸡)的游戏,却将统计课程推迟到第四年。

考虑到人类思维的诸多局限,我们常常会对得出的结论感到困惑,而机器得出的结论却恰恰相反。我们的“思考”如此不同。当我们看到一个真正相关的电影或产品推荐时,我们会对这个神奇的推荐魔术印象深刻,但不会看到魔术是如何表演的。人们很容易得出这样的结论:基于机器的思维比我们混乱的生物过程更好或更干净,因为它建立在如此多的真理和数学上。在很多情况下,这是事实,但事实背后隐藏着一个黑暗的秘密。在很多情况下,人工智能为何如此有效还不是很清楚。工程技术领先于科学技术,而我们却在玩弄我们并不完全了解的工具。我们知道它们是有效的,我们可以测试它们,但是我们没有一个好的系统来证明为什么这些东西是有效的。事实上,甚至在受人尊敬的学术界也有人指责人工智能作为一个科学领域的基本理论还没有被严格定义。这不仅仅是数学家对工程师的羞辱或嫉妒。人工智能是一堆粘在一起的领域,在如何使事物工作和证明它们为什么工作之间确实缺乏联系。所以关于思考和人工智能的问题也是关于知识的问题。如果你不知道汽车内部是如何工作的,你可以开车,所以也许你可以思考,即使你不知道为什么你的思考是如何进行的。

假设我们在人工智能领域没有一个具体的理论支撑,工程师们怎么能完成任何事情呢?嗯,有很多很好的方法来测试和训练人工智能模型,这对于今天的经济来说已经足够好了。人工智能有很多种,包括监督学习、非监督学习、强化学习等等。工程师们不会问“它在思考吗?”而是会问诸如“它坏了吗?”和“测试分数是多少?”

监督学习是一种非常流行的人工智能,它可以在一些狭窄的领域做出快速预测。在大型数据集上进行监督学习的最先进的机器是前馈深度神经网络。这种类型的系统不会思考。相反,它学会根据一组观察选择一个标签(用于分类)或一个数字(用于回归)。如果没有强有力的验证步骤,决策在“学习”过程中融入神经网络的方式就不明显。更透明的人工智能模型已经存在了很长时间,例如,在军事计划的博弈论等领域。决策树之类的显式模型是开发可解释的人工智能系统的常用方法,该系统学习了一组规则,这些规则定义了从观察到预测的路径,例如选择你自己的冒险故事,其中每条数据都遵循从开始到结论的路径。

另一种类型的人工智能被称为强化学习,它根据环境中发生的事情和过去发生的事情,学习从一个决定到下一个决定的转变。我们知道,如果没有更好的世界“环境”模型,这些方法学习起来会非常慢,甚至做最基本的任务亦是如此。学习以这种方式解决问题的系统在很大程度上依赖世界如何运作的精确模型。当处理与人类有关的问题时,它们需要大量关于这些人类做什么、喜欢什么或思考什么的数据。例如,如果没有关于人们喜欢听什么音乐的数据,就无法学习生成令人惊叹的音乐。在游戏模拟器中,人工智能模型可以非常快速地与自身对抗以获得智能,但在与人类相关的应用程序中,缓慢的数据收集速度会降低项目的速度。因此,从广义上讲,人工智能领域仍在建设中,与此同时,我们正在把很多东西塞入其中。

不管底层的技术机制如何,当您在当今绝大多数现实应用程序中与一个训练有素的人工智能模型交互时,该模型是预先训练的,不是动态学习的。这样做是为了提高您的体验的稳定性,但也隐藏了底层技术的混乱。学习往往发生在一个可以测试事物的安全空间,而作为人工智能系统的用户,您只能体验预测(也称为推理)。

很多宣传都是炒作,人工智能模型并不会在各个方面超越人类。真正会思考的机器绝对值得研究,但现在尚未出现。如今,人工智能模型和人工分析师并肩工作,分析师给出自己的意见,并得到人工智能模型的帮助。考虑更通用的数学模型(例如降雨和信用风险估算模型),以精心设计数学模型,并编码大量经过仔细思考的人类思考,这很有用。构建人工智能系统的实践需要大量的阅读和创造力。它不仅仅是在键盘上不停地编码。

我觉得人工智能软件开发人员逐渐建立了一种意识,即如何思考人工智能模型在做什么,而不是“思考”。我想从一些与我无关的人工智能领域的人那里得到一些信息,看看他们是否有同样的感觉。通过 DTA 的首席执行官,我与库尔特·曼尼宁(Kurt Manninen)进行了一次谈话,讨论他在一款名为 AstraLaunch 的人工智能产品上的工作。我问了库尔特很多技术问题,最后问了他一个问题:“这个系统像人一样思考吗?”

AstraLaunch 是一个非常先进的产品,包括监督和非监督学习,可以将技术与公司的需要相匹配。像这样复杂的技术是思考“思考”的好地方。该系统有一个引入过程,进入文档收集阶段,然后输出一个已分类的相关文档和技术图表。我想从库尔特那里了解的是他思考匹配技术的方式。当系统将 NASA 的需求映射到公司的技术能力时,它是在思考吗?当诊断一个不正确的预测时,他是否认为模型犯了一个错误,或者错误是由模型制造者和/或数据引起的?

库尔特的回答非常接近我自己的经验。像 AstraLaunch 这样的技术需要人类和人工智能模型一起工作来利用强度信息处理方法。但是,库尔特和我一样强烈地感到,人工智能模型中的错误是人的错,而不是模型的错。人工智能开发人员可以看到哪里的训练没有正确地设置来理解语言或词汇,或者哪里的数据集收集出错了,等等。

回到最初关于人工智能和思考的问题,我认为我们可以得出一个可靠的结论:这些系统根本不思考。如果我们只有快速和自动(系统 1)的人工智能可以使用,我们是否可以将人工智能模型视为对世界有不同看法的有才华的员工?好吧,不能。如果训练不受管理,人工智能可能会作弊,因此它是那种懒惰、爱欺瞒的员工。它会用简单的方法在每次考核中获得高分,即使这种方法是愚蠢的或错误的。当我们试图建立一种更像我们思考的“系统 2”时,我们需要记住思考不是为了通过测试。相反,应考虑约翰·格林这段话:

“这个测试将持续你的一生,它将由数百万个决定组成,当这些决定一起做出时,你的人生将属于你。一切,一切,都在上面。”

【数字叙事 作者:Daniel Shapiro;编译:小即】

有问题和想法?与数字诗人讨论、交流,以获得更多的信息、意见。

赞赏
小即
小即
继续
本文系数字叙事原创(编译)内容,未经授权,不得用于商业目的,非商业转载须注明来源并加回链。

订阅

受欢迎的

相关文章
Related