语言模型无法达到人类智能,“即使从现在开始训练到宇宙热死”

GPT-3、Gato 和文心等大型语言模型为人工智能的理解和创造带来了巨大的可能性,以至于一些研究者(如 DeepMind 研究总监 Nando De Freitas)表示,扩大语言模型是通往类人 AI 的道路。但 Meta 首席 AI 科学家 Yann LeCun 和 AI 研究员 Jake Browning 最近联名发表文章,阐述了否定的意见。

他们认为语言只包含人类一小部分知识,人类的大部分知识既不以口头形式也不以符号形式存在,因此,“即使从现在开始训练到宇宙热死”,大型语言模型也无法接近人类智能。

这两位科学家在文章中写道,限制不是来自人工智能,而是来自“语言的有限性”。今天的人工智能语言系统令人印象深刻,但“注定了是一种肤浅的理解,永远无法接近我们在人类身上看到的全面思维。”

在他们看来,人工智能使用语言数据训练通过一个微小的瓶颈来获取一小部分人类知识。因此,语言模型就像一面镜子,通过反射一切来产生深度的错觉,但实际上只有几厘米厚。 “如果我们试图探索它的深处,我们会撞到头。”他们写道。

他们进而阐释说,任何形式的语言都只是一种压缩的、“高度具体且非常有限的知识表示”,而人类对语言的理解往往依赖于对放置句子或段落的上下文的更深入的理解。例如,理解会受到对情境的共同感知或对社会角色的了解的影响。他们指出,对儿童文本理解的研究表明,有关文本的背景知识在理解中起着至关重要的作用。

“放弃所有知识都是语言的观点,让我们意识到我们的知识中有多少是非语言的,”两位研究者在文中写道。在他们看来,在寻求机器常识的过程中,研究人员必须考虑专注于世界本身的系统,而不是用于描述世界的词语。

此前,LeCun 提出了一种由几个模仿人脑的模块组成的 AI 架构。这个架构的核心是世界模型模块,它旨在学习世界的抽象表示,并忽略不重要的细节来预测世界——就像人类经常做的那样。【编译自 Decoder】

有问题和想法?与数字诗人讨论、交流,以获得更多的信息、意见。

赞赏
lighting
lighting
笛卡尔的“思”正在进入明斯基的“情感机器”
本文系数字叙事原创(编译)内容,未经授权,不得用于商业目的,非商业转载须注明来源并加回链。

订阅

受欢迎的

相关文章
Related