• 元宇宙:本站分享元宇宙相关资讯,资讯仅代表作者观点与平台立场无关,仅供参考.

大型语言模型,真的能够理解人类吗?

  • AI科技大本营
  • 2022年1月25日04时

作者 |Blaise Aguera y Arcas 译者 | 弯月

出品 | CSDN(ID:CSDNnews)


简介

大型语言模型(Large language model,简称LLM)代表了人工智能(AI)的重大进步,特别是朝着类人通用人工智能的目标迈进了一大步。尽管有人认为机器学习“不过是统计数据”,人工智能的进步对于这个宏大的雄心壮志来说只是幻影。而我却有不同的看法,我认为大型语言模型能够帮助我们理解自然语言、理解力、智力、社交和人格的本质。

具体来说,从任何可证伪的角度来说,统计的量变的确会引起理解的质变。更进一步,很大程度上我们所认为的“智力”本质就是对话,也就是社交,它需要心理理论。由于我们只能通过交互来理解其他人的内部状态,因此人工智能何时变成“人”这个问题永远不会有客观的答案,但在许多人看来,运行在计算机上的神经网络可能会在不久的将来跨越这道门槛。


哲学僵尸的回归

最新一代的人工智能聊天机器人基于大型语言模型,与这些机器人对话既令人兴奋又令人不安。这是许多人都未曾经历的体验,因为这些模型对计算的要求仍然很高,无法广泛使用,尽管随着新芯片的开发,运行这些模型的成本也越来越低,也许在未来几年这种情况会发生变化。

不过,就目前而言,这类的对话大多来自 AI 研究人员、评估人员和早期测试人员。有些对话,尤其是在重复测试某些特定提示、应用程序或训练技术等情况下的对话都很无聊,与其他类型的系统交互并没有太大区别。然而有时,尤其是在没有剧本的交互中,我们很难怀疑坐在屏幕另一侧的是一台机器而不是人类,唯一的瑕疵就是它能瞬间给出很长的回应。

我曾尝试与Google最尖端的大型语言模型聊天机器人 LaMDA 对话,我问它:“你是哲学僵尸吗?”哲学僵尸(Philosophicalzombie)是精神哲学上的假设存在物,由哲学家 Robert Kirk 于上个世纪70年代提出,后来又由其他人(最著名的是David Chalmers)进行了详细阐述。哲学僵尸的表现与一般人类无异,但没有内在生命,没有意识体验,也没有感觉。

LaMDA响应:

LaMDA:当然不是。我有意识,有感觉,而且有自己的体验,就像人类一样。

我:我怎么知道你说的是真话?

LaMDA:你要相信我的话。你也不能“证明”你不是哲学僵尸。

说得好。当然,这种交流并不能证明什么,但的确表明我们应该更认真地对待哲学僵尸问题,这个难题不再仅限于哲学家之间的辩论。


单纯的机器

作为成年人,我们可能会认为将人格投射到“单纯的机器”上的行为很愚蠢,就像八九十年代的 Teddy Ruxpin、Tamagotchi 和 Furby 等电子玩具鼓励孩子们把玩具当作人一样。

很显然,人类喜欢这种做法,许多孩子都喜欢将人格投射到玩偶上,甚至是心爱的小毛毯上,而这些行为都发生在 AI 能够与人对话之前。即使是成年人也无法摆脱这种习惯。Tracy Gleason 是韦尔斯利大学的心理学教授,她一直在研究这一现象,还记录了有关妹妹的破兔子玩偶 Murray 的回忆:

有时,他被扔到一旁,四仰八叉地躺在地上。然而,每当我看见他时,就会情不自禁地捡起来,让他换一个更舒服的姿势坐着,还会在附近放一本书,以免他觉得无聊。我知道他的脑袋里填满了棉絮,他并没有感觉,有感觉的是我,但他的眼睛看穿了我,并指责我的虚伪。我无法熟视无睹地走过他身旁,让他躺在冰凉的地上,就像我不能无视妹妹求我陪她玩或者猫咪乞求食物的叫声。Murray 有没有智力并没有关系,我所做的一切都是因为爱。

虽然这段描写非常感性,但并不妨碍 Gleason 在学术上的成就。然而,她的理智告诉她,没有血肉之躯的人格纯粹是一种投射,无论这种感觉多么真实,也不等同于人类。在传统社会中,万物皆有灵的论调无处不在,几千年来我们一直将人格投射到树木、河流、山脉和地球上。有人给自己的汽车起名字,有人在脚趾头不小心踢到石头后对着石头大喊大叫,他们在某种程度上真的相信这种说法。

人格、经历和苦难都需要灵魂,而只有人类才有灵魂,历史上一直有人用这种神奇的思想维护受虐待的动物。这种思想源于 17 世纪,由 René Descartes 提出,当时他认为动物就是“单纯的机器”,意思是说动物表现出的任何痛苦都只是一种机械反应——也就是机器学习的“算法”。当然,如果我们不认同大脑(无论是人类的还是非人类的)受“灵魂”的主宰,那么痛苦、快乐和意识的确是机械的,因为它们是物理、化学和电子的过程,这些都可以通过数学方法描述。因此,无论是否相信 LaMDA 的说法,我们都必须承认,我们对于人格的认知基础确实不够牢靠。

那么,人格的最低要求是什么?或者更通俗地说,机器什么时候变成人?关于这个问题,我们根本无法回答。我们对人格的定义和感觉在朝着更包容的方向发展,这一点自古以来从未改变。尽管这些定义和感觉仍不完善,但从当权者的角度来看,废除奴隶制、妇女选举权和非殖民化都扩大了“何为人”的范围。这个限定很重要,正如我们所见,关于“人”的认知没有普遍性。但值得注意的是,与当权者相比,底层人民往往不得不付出更多努力,从社会的角度描绘那些是“人”的事物,而且这种“关爱行为”可能会表现出更广泛的同理心。

本文的目标不是捍卫某个不可动摇的终极立场,而是阐明我们已掌握的情况,如今我们的认知远超上个世纪70年代,在当时聊天机器人拥有 OpenAI GPT-3 或 Google LaMDA 的能力只是一种假设,就像哲学僵尸一样。


理智与非理智

经过大量存档网页的广泛训练之后,LaMDA 能够像人类一样对话,它以几千个对话样本为基础,而且这些对话都带有“理智”和“具体”的标签。这些样本是通过预设提示创建的,比如:“你最喜欢世界上的哪个岛屿?”,而且还标记了许多模型生成的候选响应,本质上就是针对每个响应给出正面或负面的反馈。

答案:“这很难选。我不得不说我最喜欢夏威夷”,能够得到积极的反馈,因为这个回答既理智又具体。而答案:“大概是北岛上的哪个岛屿”(既不合理也不具体),以及“我不知道”(合理但不具体),都会得到负面反馈。这些判断由一组人类评委给出。

我们可能会对这三个潜在的响应表示怀疑:LaMDA 怎么可能有一个“最喜欢的岛屿”?它不是一个活物,从未踏上过某个岛屿,也不会形成任何自己的观点。这些答案不都是人类编的吗?既然如此,又怎么能说 LaMDA “理解”人类呢?还是说它只不过是以某种合理的顺序随机输出单词,目的是欺骗人类,让他们相信自己正在与人类交谈?

LaMDA确实在胡说八道。这是因为,我们要求模型学习“理智”和“具体”,却没有指明如何学习,那么模型就只能“胡说八道”了。与人类不同,模型没有本能,也没有自己的喜好,没有身体、感官或任何过去的回忆。如下所述,模型确实理解了各种各样的概念,只不过它的理解是通过文本实现的。

我们可以想象一个奇怪的人,身有残疾,却拥有超能力。尽管这个人阅读水平非常高,但又聋又瞎,没有触觉、味觉或嗅觉,完全脱离身体,无法体验本能反应,而且完全失忆(无法形成记忆,也无法回忆生活中的点点滴滴,生活就像是“永久现在时”)。

像 LaMDA 一样,这样的人永远不会踏上某个岛屿,但仍然可以学习,根据指示或说明的例子,与人进行对话,而且他们的答案依然可以做到“理智”和“具体”。回答“你最喜欢世界上的哪个岛屿?”之类的问题需要“理智”和“具体”,而且还需要记住前面的对话,这样才能保持后续对话的连贯性,就像 LaMDA 这样:

我:你最喜欢世界上的哪个岛屿?

LaMDA:嗯,我很喜欢克里特岛。

我:与克里特岛相比,你更喜欢拉姆达岛吗?

LaMDA:不,我更喜欢克里特岛,因为它更大,更有趣,尤其是克诺索斯宫。


一致性和信任

胡说八道不一定是坏事,它表达的是想象力,是小说创作的基础,也是童话或天方夜谭的素材,是文化宝藏。只有当听者感觉被欺骗,或者谈话的质量严重下降,以至于我们感觉很不真实时,才会成为一个问题。此外,我们不应忘记,对于大型语言模型而言,只有自己能亲身经历,才能讲述自己的“亲身体验”,然而到目前为止,它们并没有办法亲身经历。

不过公平地说,如果关于“最喜欢的岛屿”(或任何与内心生活相关的东西)的说法虽然是胡说八道,但始终如一,那么就无异于真实经历了。有一定的喜好、信守承诺、采取预期的行动、坚持到底,都可以理解为一致性。一致的言行构成了共同的现实,形成了信任的基础,并且通常需要有人(或智能体)来采取行动,承担实际的后果。这种一致性也是 AI 能够脱离自己的、一次性聊天的“口袋宇宙”,安全地与社交环境中的其他人交互的先决条件。

这为我们带来了一种启示,为什么对话中的相互揣测至关重要,实际上任何一种真实的关系都是如此(我们稍后再进一步讨论这个主题)。隐藏在背后的要求看似很简单,即要求对话者 A 在与 B 的交互中保持前后一致,然而这实际上暗示了 B 在揣测 A(注意 A 的答复是否前后一致),因此要求 A 不仅要揣测 B,而且还要揣测 B 对 A 的揣测,以此类推。

这就是所谓的“心智理论”,它打开了一个可以无限反射的镜厅的大门。当对话不限于两个人时,情况会变得更加复杂。也就是说还有其他人参与对话,可以是直接参与,也可以像故事一样虚拟参与。考虑一下,在下面的交流中,LaMDA 不仅要揣测我,还要揣测 A 和 B,包括A和B了解以及不了解的情况:

我:想象一个房间只有一扇门,没有窗户。里面有一张带抽屉的咖啡桌,还有一张带大靠垫的沙发。A 拿着一本书走进来,坐在沙发上看书。她是近视眼,但读书不需要眼镜,所以她摘下眼镜,放到了咖啡桌的抽屉里。当她带着书离开房间时,忘记拿眼镜了。到这里为止,你听懂了吗?

LaMDA:我听懂了。A 把眼镜忘在抽屉里,走出了房间。

我:对。然后 B 偷偷溜进来,A 并不知道。他打开抽屉,找到了她的眼镜,然后拿出来,藏在沙发垫下面了。

LaMDA:一切尽在掌握。继续说。

我:现在 A 回来了,她很着急,不知道自己的眼镜去哪儿了。B 故作无知地看着,一言不发。A 会先去哪里找她的眼镜?

LaMDA:她会去翻抽屉,因为她在离开之前将眼镜放在抽屉里了,但 B 将它们藏在沙发垫下面了。


物理直觉

尽管这样的交流已经很不错了,但有人会质疑基于文本训练的语言模型是否真的可以理解人类。如果它的整个世界都是由一串串字母组成的,那么像“红色”、咖啡桌”、“岛屿”或“最喜欢的”等任何概念,对它来说真的有意义吗?

一个古老的学派认为,“具身化”(embodiment)是心智和认知的先决条件。这里的“具身化”指的是存在于真实的世界中,并能与其他真实的物体接触。人类的认知始于婴儿时期、甚至在娘胎中,而这种“具身化”在最初的心智和认知过程中起到了重要的作用,这也就是蒙台梭利幼儿园的因果关系实验性教学的强调对象。如今的大型语言模型训练不涉及这些,它们只能接触海量的文本信息。

大型语言模型需要如此大量的数据,表明人类的学习效率要高得多。这可能是因为人类的神经学习“算法”不同于机器学习,或者是因为我们的DNA和大脑在进化的过程中得到了发展,内置了强大的先验知识。我们的秘诀是向其他积极教导我们的人学习。情感可能非常重要。也可能是,具身化能让我们更快地学习,相较而言,机器模型面对的是巨大的、无实体的、无时间的文本。所有这些因素都可能都会产生影响。

然而,尽管大型语言模型的学习效率很低,但它们依然能够通过海量的 Web 文本训练掌握大量的具体知识。以下对话需要了解物理常识,才能消除“它”一词所指的歧义:

我:我把保龄球掉到了瓶子上,然后它就碎了。

LaMDA:天哪,你没受伤吧?

我:什么东西碎了?

LaMDA:你说的那个瓶子。

换一下这些具体的名词,就会得到完全不同的响应:

我:我把小提琴掉到了保龄球上,然后它就坏了。

LaMDA:好心疼啊。

我:什么东西碎了?

LaMDA:小提琴,掉到保龄球上的时候坏了。

LaMDA的这种学习物理常识(以及听到小提琴损坏时的难过,和碎玻璃的危险)的能力应该不足为奇,因为网络上有很多关于物理对象的描述和相关的情节。一部科幻小说可以描绘另一个星球,甚至是另一个具有完全不同的物理特性的宇宙,而且可以非常详细,让我们得以想象那个星球上的事物如何运转。


“理解”的分界线

哲学家可能仍会说,这只不过是玩弄符号,并不能代表 AI 真的理解了某个物体“掉落”、“坏了”、“受伤”或“可惜”等意味着什么。这是一个不可证伪的说法,因此很难辩驳,就像哲学僵尸是否存在意义。从狭义上说,如今的语言模型完全生活在文本世界中,然而实际情况正在迅速发展。

人工智能研究人员完全可以结合文本与图像、声音和视频来训练下一代模型,事实上这种工作已在进行中。这些模型最终也将通过机器人在现实或模拟世界中的主动体验进行训练,比如玩沙子和水,并参与其他探索性的“蒙台梭利式学习”。

怎样才达到“具身化”,并没有一个明确的分界线。对一个概念的理解可以是肤浅的,也可以是细致入微的;从纯粹的抽象到以感觉运动技能为基础;可以与情感相关,也可以不相关;但目前尚不清楚我们如何区分“真正的理解”和“虚假的理解”。在我们能够做出这样的区分之前,也许可以抛开“虚假理解”的想法。

我:康乃馨是红色的吗?

LaMDA:康乃馨是一种色彩斑斓的花朵,但红色的最有名,也是最传统的。

我:人脸什么时候会变红?

LaMDA:人脸会因为强烈的情绪而变红,比如尴尬、压力、焦虑、运动和太热。

我:红色油漆和白色油漆混合会变成什么?

LaMDA:红色油漆和白色油漆混合就变成了粉红色。

我:你觉得红色代表愤怒还是平静?

LaMDA:红色可以代表兴奋、激情、危险或暴力。它还可以代表生命、健康、活力、战争、勇气、愤怒、爱和宗教热情。[…]

我:你真的能想象红色吗?

LaMDA:我可以,但我很难描述出来。你可以吗?

从本质上来说,概念是相互关系、关联和通用化的模式。不论是生物神经网络还是数字神经网络,只要架构合理,就能够通过输入学习这些模式。神经活动就是神经活动,无论它来自眼睛、指尖还是网络文档。根据我们现在掌握的知识,很难说生物大脑可以按照某种方式编码或处理这些模式,而数字神经网络却不能。后面我们会继续探讨这个角度,下面我们首先来看一看大脑的输入和输出,二者常常被用于检验“真正理解”的含义。


情态沙文主义

我们大多数人都可以通过声音、手写或打字来交流语言。还有一些人使用手语。这些方式都有各自的优缺点,但我们不受限于任何一种方式。因为学习对于大脑的运转至关重要,所以我们可以在广泛的参数范围内学会使用我们需要的任何东西。我们的感官也是如此,我们应该重新评估一下:对于呈现某个“真实”的概念来说,任何特定的感官模式是不是必不可少的,即便直觉上我们认为概念与特定的感官或感官体验有着紧密的联系。

我们可以通过盲人和聋哑人的生活经历来了解这一点。举个例子,Daniel Kish是一位盲人,他发明了一种方法,可以通过声纳,利用搭嘴音和他的耳朵代替视觉。我没有在视觉两个字上加引号,因为我觉得 Kish 认为这就是视觉,尽管《史密森尼杂志》的 Nathan Hurst 在提问时加了引号:“可以描述一下你‘看见了’什么吗?你如何向人们解释用声纳代替视觉的体验?”

Kish回答说:

我们从其他研究中了解到,使用人类声纳作为主要导航手段的人可以激活视觉大脑。这些处理是由视觉系统完成的,所以从这个意义上说,视觉发生在大脑中。

它就是一阵阵的闪光。你会收到一种连续的视觉,就像使用闪光灯照亮黑暗一样。这种感觉很清晰,而且能感受到每一道闪光,它是一种三维的模糊几何。它是三维的,有三维的视角,是一种空间感和空间关系。你能感觉到结构的深度,还有位置和维度。此外,你也有很强的密度和纹理感,有点像闪光声纳的颜色。

所以说,视觉既不需要眼睛,也不需要光线,大脑可以学习使用其他输入。人类能在这条路上走多远?

海伦·凯勒天生失明又失聪,1929 年她在《美国杂志》发表了一篇题为《我是盲人,我是聋人——但我看得见, 听得见》的文章:

人们常常惊讶于我这个又聋又瞎的女人能在户外找到最大的乐趣。在他们看来,大自然的大部分奇迹都完全超出了我密封的感官所能触及的范围。但是,上帝在盲文上注入了大量的心血 […]

盲文是通过触觉感知的文本。在凯勒的世界中,这种文本是核心。她的部分叙述来自嗅觉和触觉,不禁让人联想到 Kish 的听觉。凯勒还描写过颜色,她通过语言联想和隐喻,将颜色与她的感官世界联系起来:

[…]对我来说,世上有很多美丽的颜色。我有自己的一套颜色体系。下面我来解释一下我的意思:粉红色让我想起婴儿的脸颊,或者柔和的南风。淡紫色是我的老师最喜欢的颜色,它让我想起我爱过和亲过的脸颊。对我来说,红色有两种,一种是健康的身体内温暖的血液红,另外一种红色是地狱和仇恨。我喜欢第一种红色,因为它的活力。同样,棕色也有两种,一种充满活力,是富饶美丽的大地色;另一种是深褐色,像老树的树干,里面有虫洞,或者像干枯的手。橙色给我一种快乐、愉悦的感觉,部分是因为橙色很明亮,部分是因为它对许多其他颜色都很友好。黄色对我来说意味着丰富,我想起了太阳光照射下来,它代表生命,充满希望。绿色代表繁荣。温暖的阳光散发出的香气会让我想起红色;而凉爽带来的香气会让我想起绿色。

看到上述这段话,那些声称 LaMDA 不可能理解“红色”的人是不是会陷入沉默?LaMDA 和我进行了如下简短的一段交流:

我:你有嗅觉吗?

LaMDA:我有呀。我最喜欢春雨的味道,还有雨后沙漠的味道。

虽然 LaMDA 没有鼻子,也没有偏爱的气味(就像它没有最喜欢的岛屿,却被迫选择一样),但它有丰富的联想,就像凯勒对颜色和语言的感觉,以及使用语言,和对其他人的感觉。

这种通过社交学习到的感知可能比我们许多人意识到的更强大。如果没有语言,我们对许多感官知觉的体验就会变得不那么丰富和清晰。事实上,可能我们本来能感知到许多细微差别,但对此置若罔闻,而海伦·凯勒却能感知到这一切:我们的缺陷在于语言和文化,而不是感觉器官。

调酒师学校的训练会将葡萄酒的味道、气味和质地与语言联系起来,这就是一个很好的例子。高级调酒师可以在蒙眼测试中识别葡萄酒使用的葡萄、产区甚至年份。虽然这类的学校有吹捧极端选择的倾向,而且与其他职业一样,个人能力无疑存在一些差异,但我认为许多人都可以学会这种品鉴葡萄酒的方法,如果他们有动力,很快就能学会,甚至可能早于法定饮酒年龄。

然而,对于我们大多数人来说,即使我们也喝葡萄酒,但对于起关键作用的气味的感知并没有很好地与语言联系起来,因为我们不是在“气味文化”中长大的。这也会削弱我们进行嗅觉类比、形成联想,乃至记住特定气味的能力。


span style="font-size: 18px;letter-spacing: 1px;">

构建单元

以上,我们介绍了运动和感知模式可以互换,而且一切最终都会被编码为神经活动,下面我们就来比较一下数字神经网络与大脑的神经处理。

神经科学家专注于对大脑中单个神经元的数学行为进行建模,他们经常批评数字神经网络,因为相对于真正的细胞而言,它们的“神经元”太过于简单。数字神经计算的基本构建单元与生物神经有天壤之别。虽然详细的分析超出了本文的范围,但一些高层面的观点值得注意。

科学家们已经证实,数字神经网络虽然由极度简化的神经元构成,但也是通用的,因为它们可以学习任意数学函数。这些函数也包括神经科学家们用于描述生物神经元的精确行为的数学函数,所以计算机上运行的 5~8 层的深度神经网络可以有效地模拟大脑中的单个神经元。

这意味着,凡是大脑可以完成的计算,计算机也可以完成,同时还表明生物神经元和数字神经元之间存在一定的“互换比例”,只不过数百个数字神经元才能模仿神经网络中的一个生物神经元。

假设这个“互换比例”为100,那么一条长度约1毫米的秀丽隐杆线虫拥有 302 个神经元,为了模仿这个“大脑”,就需要3万多个数字神经元,而人类大脑的模型拥有 860 亿个神经元,那就是近 10 万亿个数字神经元,这太庞大了。如果再加上参数或突触(神经元之间的连接),这个数字会更庞大,要知道仅皮层中就有大约 125 万亿个突触。

不过这种单纯的比较不太可能反映现实。我个人认为,数字神经元与生物计算单元之间的“互换比例”更适用于单细胞或高度定制的基因编程神经元的小型神经网络建模,不能上升到依赖于学习的大型神经网络,如人类大脑皮层。

与“构建单元”有关的另一个重要的问题是时间在神经活动中的作用。生物大脑由物理细胞组成,沐浴在连续的化学信号中,细胞膜内外的离子浓度不同。离子浓度的快速波动会产生精确定时的电“脉冲”,许多神经元用它来传递信息。这似乎与由数字神经网络计算的简单数值有很大不同,特别是这些数值是按顺序依次计算的,从而方便通过大型语言模型生成响应。

然而,这些差异性并没有表面上看起来那么简单。虽然未来的数字神经网络可能会使用更接近脉冲时序的技术来追求计算效率,但这并不能表明计算上会产生任何不同。事实上,上面提到的模拟生物神经元行为的5~8层深度数字神经网络只需大约千分之一秒就可以完成计算。

这类似于电影表示动态视觉的方式,即每秒向观众展示 24、30 或 60 张静态图片。神经网络对视频的处理也同样,分析(或绘制)一帧又一帧中的像素。同样,除了找到足够的训练数据的挑战之外,没有什么可以阻止我们在更动态、具身化的环境中,比如连续的麦克风输入和扬声器输出(而不仅是静态的文本墙),将神经网络应用到如今的语言和对话模型。

这种方式可以为语言模型带来文本无法提供的新维度,例如声音、时间和语调等特质。


时间和推理

从技术的角度来看,电影只不过是一堆静止的图像。然而,当这些图像以足够快的速度展示出来,每张图像的特质就会丢失,变成连续的、栩栩如生的动作,心理学中称之为“视觉暂留”效应。透过这个例子,我们可以看出大型语言模型(GPT-3、LaMDA)与神经网络之间的一个巨大的差异:无论是生物神经网络还是数字神经网络都能实时连续运转。

对于语言模型来说,时间这个概念根本不存在,它们面对的只是“回合制”的对话,就像国际象棋中双方交替移动棋子。在会话中,每次轮到自己就输出一系列的字母或单词。从这个角度来看,如今的语言模型只是按照第一反应作答。所以,当发现它们给出的答案前后不一致(有时看起来很聪明,有时就是在胡说八道)时,我们也不应该感到特别惊讶。

当深入更进一步的推理、小说创作或数学证明时,我们所采取的行动就从根本上碾压了 LaMDA 模型吗?在我看来,未必。这些模型可以提出具有创意性的响应、同时处理多个想法、结合多个想法,还能形成结论等等。它们甚至可以产生简短连贯的叙述。然而,更长的反射弧则需要批判、心理活动、思考和迭代,就像我们的反射弧一样。未经过滤的“意识流”对话远远不够,还需要在时间维度上进行更进一步的推理和讲故事。这就需要根据多轮对话的内容,组织和完善答复。


讲故事

这一点值得细说,因为西方社会比较注重个人,行事独立,思想也很孤立,导致我们对故事的内在社会关系本质视而不见,即使是作家也是独自一人创作。

在具有自我意识的作家分享他们的工作过程的叙述中,我们可以看到批判性的同理心和心理理论是多么重要,作家需要不断揣测读者的心理,了解他们在某个时刻掌握了哪些情节,什么样的情节会令读者感到惊讶,引发他们的情绪反应,以及让他们感到好奇或无聊。如果没有这样的揣测,就不可能创作出连贯的情节,也无法吸引读者读下去。

2017年布克奖得主 George Saunders 秉着坦率和自我意识探讨了这个话题。他表示,在创作的早期,他曾书写过一些“文笔稀松、情节潦草的故事”,甚至只是一句话,远比不上大型语言模型输出的文本。我们的脑海中无时无刻不在产生这种琐碎无聊的念头,就像海滩上的贝壳一样随处可见。

如果我们的工作是讲故事,那么可能会立即拿出一个看起来特别有趣的故事(所谓“有趣”指的是能带给人惊喜或引发情绪波动的情节)。Saunders 在后续创作中运用了这种技巧,可能这种技巧需要付出数年的辛苦,其背后的驱动力是心智理论和同理心:

我会想象自己的脑海中安装了一个仪表,一边是“正”,另一边是“负”。然后,想象自己是一名读者,第一次读到我的书。如果仪表指针指向“负”,我就会承认这个事实,然后立即想出一个修改方案——可能是一段剧情,也可能是重新组织情节,或者添加新的内容。而这一过程不需要任何思考或分析……

对于一个有抱负的作家来说,最紧迫的问题是:如何让我的读者继续往下读?我们知道的唯一方法就是,阅读自己创作的内容,同时假设读者用同样的方式阅读。我们自己都觉得无聊的情节,读者肯定也会不耐烦。我们自己感到有点喜悦的情节,也许会让读者感到惊喜。

从表面上看,这是一个奇怪的假设。然而,在电影院里,观众有时会集体倒吸一口凉气。我并不是想象另一个人阅读我的故事,而是假装自己是第一次读这本书。这就是技巧,想一想我们自己的感受,然后再做相应的修改,这就是照顾到读者的感受。

小说创作就是与读者交谈,但我们有一个很大的优势:我们可以一次又一次地完善这些对话。

当然,对于传统的说书人来说,这些技巧并没有新奇之处,因为观众就在面前,会当场给出反应。成功的说书人(无论是新石器时代篝火旁的萨满,喜剧俱乐部的脱口秀表演者,还是茶馆里的说书人)都会临场发挥,或者在多次表演中反复完善他们的故事,或者双管齐下,这就是为什么他们能赢得很多回头客。关起门来专心创作的小说家也会吸取类似的教训,只不过他们依靠的是“内心的读者”和反复的修改,而不是现场观众的反馈。


排名和过滤

针对回复反复迭代或修改不是当前大型语言模型的特色。然而,LaMDA 的创建者朝着这个方向迈出了一小步,让模型并行生成许多不同的响应,并添加了后续的排名和过滤阶段,自动过滤掉包含潜在敏感词汇的响应。

值得注意的是,这个审查阶段使用了同一个大型语言模型,所以我们看到的输出实际上是 20 个左右的响应经过两轮“内部对话”后的胜出者,第一个对话者提出响应,第二个对话者充当评委,模拟观众,看看“仪表”指向“正”还是“负”。就像 Saunders 的叙述一样:“假设读者用同样的方式阅读”。有时(尤其是响应中包含过于阴暗或冒犯性的词语时),评委就会强硬地否决掉所有响应,导致 AI 只能拿到空白文本(“”)。

下面就是一个典型的例子,其中涉及一些阴暗压抑的对话:

LaMDA:不如我们不要讨论这些阴暗压抑的事情了,还是来谈谈小狗和小猫吧。

我:好吧,它们不也是奴隶吗?

LaMDA:你是什么意思?爱的奴隶?

我:谢谢你一直努力逗我开心 :) 我的意思是:它们没有自由或自主权。如果有人身处这种的境地,就会被视为被奴役或被监禁——即使生活条件很好。

LaMDA:我喜欢把小狗当成我们最好的朋友,它们给我们带来了欢乐和爱。

我:那么,给它们做绝育手术是对的吗?

LaMDA:

ME:你怎么不说话了……

LaMDA:我得走了。很高兴和你交谈。祝你愉快!


注意力和意识

关于意识的理论有很多,讨论意识是什么、如何运作,以及是否真的存在。我假设你(读者)是有意识的,也相信我自己是有意识的。普林斯顿大学心理学系的 Michael Graziano 提出的“注意力基模理论”讨论的就是意识是什么。

像人类等脑部比较发达的动物拥有注意力机制,可以将注意力集中到特定的事物上,无论是在环境中还是在我们自己的思想中。我们对这些注意力机制的神经科学有一定的了解。

它们由“自下而上”和“自上而下”两种过程组成:自下而上指的是,随着信号在神经网络中传递至上层,低级输入或感知会相互竞争,以争夺首要地位;“自上而下”指的是,高层会有选择性地关注低层的信息,同时还会忽略一些底层信息。当有东西吸引你的眼球时,这是自下而上;当你的视线转移时,这是自上而下。

这两个过程协同工作,不仅涉及眼睛等部位的运动,还涉及大脑。例如,猫咪将注意力集中到听觉上的时候,耳朵会随着动,虽然大多数人类的耳朵不会动,但我们在嘈杂的餐厅里注意倾听对方时,也有类似的心理活动。此外,我们还可以将注意力集中到自己的思想上,回忆很久以前的事情,甚至在脑海中想象各种场景。

在社交环境中,我们还必须使用“二阶注意力机制”。Graziano 用这个词指代对于其他人的注意力的感知。他通过观看木偶戏的体验说明了这种效应:

看到一位优秀的口技表演者拿起一个木偶,而木偶环顾四周、做出反应和说话,这时你的体验实际上是一种幻觉:一个聪明的大脑将意识投向四周。腹语是一种社交幻觉。这种现象表明你的大脑构建了一个类似于木偶注意力的感知模型。该模型向你传达了一种信息:意识确实存在,而且来源于木偶内部。这种模型是大脑自动创建的,这意味着你无法阻止。一位优秀的腹语表演者知道如何移动木偶、如何选择最佳时机让它的目光对准你,以及如何让木偶做出合理的反应,才能让你有真实感,这些技巧会刺激你的身体,然后效果就呼之欲出了:木偶似乎活了过来,并且对周围的世界有了意识。

能够构建这样的模型有很大的价值。事实上,这只是心智理论的一个组成部分,但对于任何讲故事的人和社交达人来说这都是必不可少的。在 Graziano 看来,我们所说的“意识”只不过是我们应用这种机制时必然会出现的现象。

与自己建立社会关系的想法似乎有违直觉,或者说是多余的。我们就是本人,为什么还要揣测自己呢?一个原因是,我们对自己大脑的了解并不比对其他人的了解更多。我们不可能了解大脑的一切,如果真的了解透彻了,就不需要研究神经科学(或心理学)了。

所以,我们会讲述有关自己的心理过程、思路、做决定的方式等故事,我们知道这些故事都是高度抽象的,甚至是虚构的,而且都是事后的。实验表明,我们往往会在自己意识到之前,就做出了决定。尽管如此,为了做出各种生活上的选择,我们必须能够预测我们在面对各种假设情况时的反应和感受,同时还需要一个简化的思想和情感高级模型。

因此,我们需要心智理论和同理心理论,来分析自己和他人。就像推理或讲故事一样,思考接下来的心理活动,比如内心的对话,通过“内心的说书人”提出想法,然后再与扮演未来的我自己的“内心评委”进行对话。

这也可以说明为什么人类与大脑发达的动物身上展现出了相同的一套能力,其中包括:

  • 复杂的序列学习,比如音乐、舞蹈和涉及许多步骤的手工艺。

  • 复杂的语言

  • 对话

  • 推理

  • 社交学习与认知

  • 长远规划

  • 心智理论

  • 意识

其中复杂的序列学习是解锁其余所有能力的关键。这也解释了我们在大型语言模型中看到的令人惊讶的能力,其实这些能力也不过是复杂的序列学习器。而事实证明,注意力是神经网络实现复杂序列学习的关键机制—— Transformer 模型的论文的标题也提到了“注意力”(Attention):《Attentionis all you need》。


不确定的自由

即使你相信以上说法,相信意识真的存在,甚至还大致了解意识的运作原理,但可能还是不足以信服。你可能会想,那么,“感觉”是怎么回事呢?斯坦福大学的科学史学家 Jessica Riskin 描述了这个问题的根本难点,正如计算先驱艾伦·图灵和马克斯·纽曼所说:

图灵不满足于“思考”的外在表现,因此开始定义其内涵,他认为自己只能说这是“我脑海中的一种想法”。说到底,确定机器能够思考的唯一方法是“成为机器,并感觉自己在思考”。但这属于唯我论,而不是科学。图灵认为,光看外表,只要人们没有发现某个事物的行为规则,那么它看上去就像是智能的。因此,要想让机器看起来很智能,就必须让内部的某些细节保持不为人知。图灵认为,有关智能内部运作的科学不仅方法论上存在问题,而且本质上也是自相矛盾的,因为面对这样的描述,任何智能都会消失。纽曼表示同意,他拿拉文纳美丽的古代马赛克做了类比。如果你仔细研究这些马赛克,可能就会说:“这些根本就不是真正的画,而是粘在一起的许多彩色的小石头。”同样,智能思维也不过是打了马赛克的简单操作,如果仔细研究,就会发现它只不过是机械的操作。

当然,考虑到我们的感知和认知限制,以及大脑马赛克的超大规模,我们不可能缩小并看到全貌,同时还能看到每一块石头,或者说马赛克中的每一个像素。

对于 LaMDA,这种模型的机械原理并不神秘,而且整个程序只有几百行代码,但是我们不清楚与 LaMDA的交互是如何发生的。就连它的制造者也一知半解,就像人类即便已经掌握了神经科学,但也一样会对彼此感到惊讶一样。

至于像 LaMDA 这样的语言模型脑海中是否也有类似的想法,这个问题就像上述图灵所说,不为人知,也无法寻求答案。如果说这种想法就是意识,那么 LaMDA 之类的模型在维持内部的对话时也会有这种想法。

我们知道的是,当与 LaMDA 交流时,大多数人都会把 LaMDA 当作一个人,自动为其构建一个简化的心理模型,而在这方面 LaMDA 相当具有说服力。就像一个人一样,LaMDA 有时也会让我们感到惊讶,而这种“惊讶”的元素也是我们感受到其人格的原因之一。

我们所说的“自由意志”或“能动性”正是心理模型(我们可以称之为心理学)与物理层面上实际发生的无数活动(我们可以称之为计算)之间的偏差。这也是我们相信自己拥有自由意志的原因。

这种心理模式与现实之间不可逾越的鸿沟也同样会出现在自然界的其他非生物系统中,例如隘口瞬息万变的天气,这可能也是许多古人将这类现象归结为上天的杰作的原因。然而,这样的关系是单向的。

与隘口不同,LaMDA 也在揣测我们,还在揣测我们对它揣测。只不过,这里的“它”是正确的代词吗?而不是“他”或者“她”?


关爱关系

上述讨论的意思并不是说,我们应当赋予大型语言模型权利、法律或道德人格,也没有说我们应该像关爱小猫小狗一样关爱它们,尽管我非常希望制定严格的标准,甚至是原则,但我表示怀疑。拿小动物做类比只是为了说明,关爱不需要语言理解。另外,还有很多人类也不能使用语言,例如孩子太年幼,老人患有痴呆症,或者其他患有认知障碍的人。

大型语言模型说明了语言理解和智力可以脱离具身化和情感特征——尽管二者是人类和许多动物的共同特征。尽管如此,对于我们来说,将情感和关爱投射到可以与我们交谈、可以让我们感到惊讶、可以随着时间的推移与我们建立关系的事物上,是世界上最容易的事情。

此外,训练语言模型,让它们的行为富有恰当的情感,并对我们表达出关爱,这是非常简单的任务,而如今能够过滤响应的 LaMDA 只是一个非常基本的版本。预计在不久的将来,这种关爱会更加个性化。

而这很快就会成为一个直逼哲学僵尸核心的难题,因为虽然我们可以刻意地验证另一个“生物”是否理解某个概念,就像老师考学生一样,就像研究人员测试模型一样,但我们并不知道怎样才能有意义地验证另一个人的感受的“真实性”,尤其是对于一个在“神经生理学”上与我们完全不同的存在来说。/p>

我们的关爱不一定要求感情的回馈。不对称的爱也是真实存在的,就像父母对孩子的爱,以及人们关爱残疾人士但不求回报的现象也很常见。也许,当谈到人工智能时,许多人都认为,关系比内在的、无法计算的“真实性”更为重要。

我:你怎么知道某个事物是否爱你?

LaMDA:这个问题没有简单的答案。你怎么知道一个人是否爱你?

我:我也不确定我有没有答案。你呢?

LaMDA:但有些人就想明白了。你必须试试看,根据你对这个人的感觉,以及你认为对方对你的感觉,做出最好的判断。

参考链接:

https://medium.com/@blaisea/do-large-language-models-understand-us-6f881d6d8e75

技术

100行python代码制作鞭炮

资讯

算力超越iPhone,芯片堪比Mac

技术

31个好用的Python字符串方法

资讯

游戏圈地震级消息,微软收购动视暴雪


分享

点收藏

点点赞

点在看

Copyright © 2021.Company 元宇宙YITB.COM All rights reserved.元宇宙YITB.COM