文/Michael Townsen Hicks · James Humphries · Joe Slater
近来,人们对大型语言模型——一种可以生成“类人类语言和对话”的机器学习系统,显示了巨大的兴趣。由于其输出持续地缺乏准确性,基于这些系统的应用备受困扰;通常这种情况被称为“AI 幻觉”。我们认为,这些失真以及大规模语言模型的整体活动,最好被理解为按照Frankfurt所探索的意义上的扯淡(On Bullshit, Princeton, 2005):很大程度上,模型对其给出的真实性漠不关心。我们区别了两种将AI当作扯淡的角度,并认为它们明显符合这些定义中的至少一个。更进一步,我们认为将AI 的歪曲误传行为形容成扯淡是一种更有用且更准确的方式,以此来预测和讨论这些系统的行为。
大规模语言模型(大规模语言模型s)是一种利用大量可用文本和概率计算来生成“类人类创作的文本”的程序,在过去几年里,它已经变得越来越成熟和令人信服,以至于部分评论家认为:人类目前正在接近创造通用人工智能(see e.g. Knight, 2023 and Sarkar, 2023)。加上担忧天网的兴起和大规模语言模型s的使用,比如ChatGPT将代替人类完成本可以也应该由人类完成的工作,一个问题便是:这些程序到底想干什么?更具体一点,这是一个关于“文本生成”和“它与真实之间的关系的本质与意义“的问题。在这篇论文中,我们反对当ChatGPT及其类似产品在生成虚假错误主张时,是在欺骗甚至迷惑用户。同时,我们支持,它们的这些行为属于Frankfurt意义下的纯属胡扯(Frankfurt, 2002, 2005)。因为这些程序本身并不关注真相,它们被设计成生成“看似具有真实性”的文本,而实际上并不考虑真相,由此看来,将它称为“胡扯”是恰当的。
我们认为这值得引起关注。对新兴科技的阐述(包括隐喻性的),将指导政策制定者和公众了解新兴科技;它们同时也告知这些基于新兴科技的应用的存在。它告诉我们这类科技到底是为了什么,我们可以期待它做什么。最近,ChatGPT及其他大规模语言模型的虚假陈述被描述为“制造幻觉”,这种描述让政策制定者和公众认为这些系统在扭曲世界并描述它们眼中的世界。我们认为这是一个不恰当的比喻,它将误导公众,政策制定者和有关各方。
本文的结构如下:在第一部分,我们概述了ChatGPT和类似的大规模语言模型s是如何运作的。接下来,我们考察了以下观点:当它们犯事实错误时,它们在撒谎,制造幻觉。也就是说,它们在提供虚假信息或根据误导性指令无可指责地说谎。我们认为,以上没有一种解释是准确的,说谎和制造幻觉都需要在某种程度上对它们的陈述的真实性的做考虑,然而大规模语言模型s简单来说就不是为了精确描绘世界而设计的,它为的是给出对于它们活动一种印象。这种行为,就我们看来,和Frankfurt所说的“胡扯”至少在一些方面极为相近。我们将胡扯区分成两类,称其为“硬”胡扯和“软”胡扯。前者是当它积极的试图欺骗读者或听众关于某些活动的本质,后者只需要缺少对真相的关注。我们认为,大规模语言模型s,如ChatGPT,的输出,至少也算是“软”胡扯:即,说出或生成没有考虑过真实性的文本,同时,在生成时没有故意误导听众对发言者对真相的态度。更有争议性的说法是,我们还认为ChatGPT可能有意在“硬”胡扯:如果我们把它看作是有意图的(比如从它的如何被设计的角度看),那么事实就是,它被设计为“给出一种关心真相的印象”由此误导听众对其目的、目标或计划的认知。因此,需要注意的是,AI胡扯的具体类型取决于采用哪种思维和观点去讨论它,我们得出的结论是,将ChatGPT生成的文本当作胡扯讨论时合宜的,并重点解释,为什么不要将其不真实发言当作谎言和幻觉的制造而是当作胡扯。
大规模语言模型正在变得越来越善于进行令人信服的对话。最著名的大规模语言模型就是OpenAI的ChatGPT,因此我们将重点放在它身上;然而我们所说的内容也同样适用于其他基于神经网络的AI聊天机器人,包括Google的Bard,AnthropicAI的Claude(claude.ai)和Meta的LLaMa。尽管只是作为有点复杂的软件,当这些模型在讨论大量不同话题的时候,它们的表现出奇的像人类,特别是它可以生成和平均英语水平相对的文本。GPT-4能够达到的多样性,文本量和与人类创造的文本的相似度已经说服了许多评论家去相信这个聊天机器人终于成为真(而不是名义上的)人工智能,距离成为硅基大脑中的类人智慧仅一步之遥。
然而,大规模语言模型以及其他AI模型,如ChatGPT,所做的事远远少于人脑所做的,同时,尚不明确当它们做这些事时和我们做这些事时脑子所经历的是一样的。大规模语言模型和人类最明显的区别涉及到系统的目标。人类有各式各样的目标和行为,大部分是语言之外的:即,我们有基础的渴望,比如对食物和维持生理健康;我们有社会目标和人际关系;我们有计划,我们创造实体。大规模语言模型则单单需要重复人类的语言和书写。这意味着它们的首要目标,如果它们有的话,就是生成类人文本。它们通过曾经出现的文本来预估特定单词接下来会出现的可能性,以此生成文本。
机器通过从互联网上获取大量文本来建立一个大型统计模型,以此做到上述所提到的。对于此,机器只从研究员和系统设计者那里获取相对较少的意见;相反,该模型是由构造数量庞大的节点设计出来的,它们充当概率函数,为了使一个单词合理地出现在一个给定上下文的文本中或出现在之前出现过的文本中。相较于手动输入这些概率函数,研究员使用大量的文本训练该系统,并让它根据训练数据对接下来的词语进行预测。然后,根据它的预测给出正确或错误的反馈。当给到它的文本量足够大时,机器可以构建一个能自行给出文本下一个词的可能性的统计模型。
该模型给每个单词赋予一个向量,它能把单词放置在一个高维抽象的空间内,与出现在类似语境中的其他单词相邻,反之则离得较远。当机器生成文本时,它观察之前出现的一系列单词,由此创造一个不同的向量,将其周围的环境——它的上下文——定位在与之相近,会出现在类似语境下的单词旁。我们可以启发性地认为以上就代表了单词的含义及其上下文的内容。但是,因为这些空间是由机器学习构建的,它对大量文本重复地统计分析,我们无法得知这个高纬度向量空间中维度代表的是何种相似性。由此,我们也无法得知,与我们对意义和语境的理解相比,它们有多相似。接下来,模型使用这两个向量,为下一个单词生成一系列可能性;它选择并放置其中最有可能性的一个单词——虽然并不总是虽有可能性的那个。允许模型在最有可能的单词中随机选择将会使其生成更具创造性和类人的文本;用于控制这一维度的参数被称为模型的“温度”,提高模型的温度将使得它变得更具创造性同时也更容易生成虚假信息。系统将不断重复这个过程直到它对提示指令给出可识别的,看似完整的回应。
了解上述过程后,我们就不会对大规模语言模型在真实性方面具有的问题感到惊讶。它们的目标就是向提示指令提供看似正常的回应,而不是传递能帮助对话者的信息。此类例子数不胜数,比如最近一位律师用ChatGPT准备辩护状,令他气愤的是,大部分引用的法律案例都不是真实的(Weiser, 2023);正如法官P. Kevin Castel所言,ChatGPT生成的文本充满“虚假的司法判决,虚假的引用和虚假的内部传讯”。类似的情况也发生在当计算机科学研究人员测试ChatGPT辅助学术写作的能力时,他们发现当给予正确提示指令时,机器有能力生成出乎意料综合的,有时候甚至准确的,生物学科文本。但是当要求它为生成的内容提供案例时,“它提供的是五个2000年初的参考数据。它提供的论文题目没有一个存在过,所有提供的PudMed IDs(PMIDs)都是不同且不相关论文” (Alkaissi and McFarland, 2023)。这些错误可以继续延伸:当语言模型被要求对一个错误的陈述提供证据和深入解析时,它很少自我检查;相反,它会自信的创造更多伪造的但听起来正常的陈述。(Zhang et al. 2023)。大规模语言模型和其他生成性AI的准确性问题通常被当作“AI幻觉”:聊天机器人似乎在用本不存在信息源和事实创造幻境。这些不精准性在技术语境(OpenAI, 2023)和流行语境(Weise & Metz, 2023)下都被称为“幻觉”。
如果聊天机器人的唯一目的是模仿人类语言和交流,那么这些错误就算不上严重。然而,公司为了更大的计划去设计并使用这些机器人:因为它拥有更友好的用户对话界面,聊天机器人将替代谷歌和必应搜索引擎(Shah & Bender, 2022; Zhu et al., 2023)或者在医疗领域协助医生或治疗师(Lysandrou, 2023)。在这种情况下,准确性就极为重要,错误的回答会导致严重的问题。
一种可能的解决方案是将聊天机器人和某类数据库,搜索引擎或可以解答大规模语言模型出现错误的计算程序绑定在一起(Zhu et al., 2023)。不幸的是,这种方法也不是很有效。比如说,当ChatGPT与Wolfram Alpha,一个强大的数学软件,连接后,在回答简单的数学问题时,它有一定的进步。但特别是当问题需要多级思考时,它依然频繁的出错(Davis & Aaronson, 2023)。当它和搜索引擎或其他数据库连接时,模型依旧很有可能提供虚假信息,除非它们收到非常明确具体的指令,即便如此结果依旧不完美(Lysandrou, 2023)。OpenAI已经计划通过训练模型做单步推理来纠正这个问题,(Lightman et al., 2023)但这会占用大量资源,我们有理由怀疑它是否真的能解决问题——不清楚最终会成为一个大规模语言模型,还是某种更广泛的人工智能形式。
将大规模语言模型与数据库连接的解决方案同样不理想,因为,如果模型是基于数据库训练出来的,数据库中的单词将影响聊天机器人在生成文本时下一个单词的概率。这只会让生成的文本更像数据库里的文本;这样做会让它更有可能重现数据库里的信息,但无法保证这一点。
另一方面,大规模语言模型可以以“咨询数据库”的方式与之连接,就好像向人类对话者咨询和聊天一样。这种方法可以利用数据库的输出作为文本,并对其响应和构建。有一种有效办法:当人类对话者询问语言模型一个问题,它可以将其转换成一次对数据库的查询。然后,它从数据库得到回应,将其作为输入,以此生成一个文本再提供给人类提问者。但这也可能不奏效,聊天机器人可能会向数据库提出错误的问题,或者误解数据库给出的答案(Davis & Aaronson, 2023)。“GPT-4总是纠结于如何提出一个Wolfram Alpha可以理解的问题,或者纠结于如何生成有用的回答。”这与以下事实不无关系,当语言模型为数据库或计算模块生成问题时,它采用的方法和向人类生成文本的方法是一样的:及,评估输出“看起来像”数据库会回应的那种东西的可能性。
可能有人担心这些用于提升聊天机器人准确性的失败的方法会与AI幻觉这个不恰当的比喻联系起来。如果AI 在误解或混淆信息来源,一个纠正办法就是将其与真实信息源而非虚幻信息源联系起来。但这么做已经失败了。
这里的问题不在于大规模语言模型在创造幻境,说谎或是误解这个世界。而是它们完全不是被设计成代表这个世界;相反,它们被设计为传达令人信服的文本。所以,将数据库或类似资源提供给它们时,它们用各种方法利用之,使它们的回应更具说服力。然而,它们并不真的试图传递或转达数据库中的信息。正如Chirag Shah和Emily Bender所说:“在语言模型的设计中(它的训练任务就是预测给定语境中的单词)实际上没有处理算法,时序推理等等设计。某种程度上,有时它们能得到一些问题的正确答案,但那只是因为它们碰巧从训练数据中合成了相关字符串。这和推理没有关系……同样的,语言模型倾向于胡编乱造……因为它们不被设计成用自然语言表达一些潜在信息集合;它们只是在操纵语言的形式”(Shah & Bender, 2022)。这些模型不是被设计成传达信息,所以我们不需要过于惊讶于它们虚假的断言。
许多关于ChatGPT的流行讨论将它的虚假陈述当成“制造幻觉”。也有人认为这些不真实的陈述是谎言。然而,我们认为这不是个正确的思路。稍后我们将在第 3.2.3 节中论证这些谎言并不是幻觉。现在,我们将讨论为什么这些虚假陈述不是谎言而是胡扯。
以谎言为主题的哲学文献很丰富。对于“说谎”,Saint Augustine将其分为7类谎言,而且终其一生他的观点在不断变化。以至于,它辩护道:任何故意说出的虚假言论都是谎言,所以即便是开玩笑也算伪命题,比如说——
我参加了一个双关语比赛,因为我真的很想赢,我提交了10个词目。我确定其中一个会赢,但没有一个赢了。
——就会被看作谎言,因为我从未参加过类似的比赛(Proops & Sorensen, 2023: 3)。后来,这个观点被提炼成“只有在说话者刻意让听话者相信虚假陈述时才算说谎”。说话者必须有意欺骗,成了文学中说谎的统一条件。根据说谎的“传统说法”:
Lie=df. 说谎的定义如下,向另一人做出被认定是虚假的陈述,意图使其他人相信该陈述是真实的(Mahon, 2015)。
对于我们的想阐述的,这个定义就已经足够了。谎言一般都不被接受。但是有一些误导性证词是值得批评的,它们不属于说谎的范畴。包括散播不真实的,但人们误以为真的谣言。另一种受到哲学家特别关注的误导性证词就是“胡扯”。Harry Frankfurt在哲学词典中分析并介绍了这个日常概念。
Frankfurt认为胡扯的特质不是其欺骗的意图,而是对真实的鲁莽无视。一个什么书都不看的学生试图让自己听起来很有学问,一个政治候选人只是因为潜在选民喜欢就说一些话,一个试图编造有趣故事的外行:这些人里没有一个刻意说谎,但也没有人试图传达事实。对于Frankfurt来说,他们就是在胡扯。
和“谎”一样,“胡扯”及是个名词也是个动词:一段言论产生是谎言也可以产生胡扯,正如如何产生这段言论一样。要将一段言论划为胡扯,需注意其不能伴随对于说谎的明确意图,即,对听者造成虚假的相信。当然,它也不能伴随有诚实言论具有的特征。到目前为止所讲的都是消极的。说话者一定要表明任何积极意图吗?
在Frankfurt的大部分讨论中,他对胡扯的形容都是消极的。他提出胡扯需要说话者对事实“没有信念”(2005: 55),即,在胡扯的人对于真相“完全不关心”并且“对于事实以及他们口中所讲的事情,他们可能并没有欺骗我们或不打算这么做” (2005: 54)。接下来他将胡扯的“决定性特征”描述为“缺少对真实的关心,或者对事物本来的样子漠不关心(我们的重点)” (2002: 340)。以上表明了一幅负面的图景;要将输出的内容划为胡扯,只需要它与真实之间缺少某些关系就行了。
然而,在某些地方,积极的意图也是存在的。Frankfurt说一个胡扯的人……
“……一定会在他做的事上欺骗我们。他唯一不可或缺的鲜明特征就是在某些方面扭曲他正在做的事。” (2005: 54)
这有些令人感到惊讶。它将胡扯限制在只有伴随着高级欺骗的言论中。然而,Frankfurt的一些解释似乎缺少这个特性。当Fania Pascal向她朋友Wittgenstein形容她不舒服的状态,说“好像一条刚被碾过的狗”时,很难相信她是想对于“被碾过的狗的感受”一事欺骗他。考虑到胡扯的条件通常是消极的,我们在想是否有必要考虑它积极的条件。
没有欺骗意图的发言是否应该被算作胡扯呢?Frankfurt关于胡扯的危险性的评论表明了赞成扩大其定义,或解释各种类型胡扯的一个原因。
“相反(对于仅仅是莫名其妙的言论),对真实的漠视是极为危险的。文明生活的行为以及其不可或缺的制度的活力,在根本上是取决于对真假有别的尊重。只要这种区别的权威被胡说八道的流行和接受胡扯泛滥是无害的这种盲目轻浮的态度破坏,那么人类特有的价值就被浪费了。” (2002: 343)
不论说话者的本意是否具有欺骗意图,这些危险似乎都显现了出来。试着比较将那些试图误导我们相信他们从事的是与真理有关的事业的具有欺骗性的胡扯的人,和那些没有这些意图,仅仅是为了说话而说话的人(不关心他们言论的真实的价值的任何想法)。
Frankfurt的一个关于胡扯的例子很适合用胡扯的广义定义来阐释。当他思考广告行业时,“因其充满了纯粹的胡扯的例子,以至于成为这个概念最无可争议和经典的范式之一。” (2005:22)然而,这似乎曲解了许多广告商的目的,并误会了他们在做的事。人们期待他们说些误导人的话。Frankfurt说万宝路广告传递了一条消息,即吸烟者像牛仔一样勇敢(2002: 341)。认为广告商假装相信这个是合理的吗?
Frankfurt的确考虑到各种类型的扯淡(2002: 340)。根据这条建议,我们提议将胡扯设想成一个大类,Frankfurt心目中的胡扯是该大类里的一种。其他种类可能包括广告商的作品,这些广告商估计没有人会相信他们说的,或者那些不在乎是否误导了听众的人。为此,请考虑以下区别:
胡扯(一般意义):对说出的话的真实性毫不关心的发言者发出的言论。
了解胡扯的普遍概念是很有意义的:在某些情况下,我们可能相信一个陈述要么是软胡扯要么是硬胡扯,但鉴于我们无法得知说话者的高阶欲望,我们不能确定是哪种胡扯。但在这种情况下,我们还是可以称其为胡扯。
即使软胡扯似乎可以解释一些Frankfurt的例子,比如Pascal和Wittgenstein的对话,或者广告商的工作,但Frankfurt自己的对胡扯的说明更符合硬胡扯,即,对说话人的意图有明确的需求。把这些区别放在现存的文献中可能会比较有帮助。在我们看来,硬胡扯和Cassam及Frankfurt的积极说明很相似,因为他们的观点都认为,为了使发言变为胡扯,必须包含某种意图,而非缺失某种意图:一种“认知上的漫不经心”或者如Cassam认为的对真相的恶意态度,以及(如我们所见)Frankfurt认为的,一种向听众误导说话者举动的意图。在3.2节中,我们考虑了ChatGPT是否可能在硬胡扯,但是要重点注意的是,如前面引用的两种描述,确定是否在硬胡扯,需要人们表明是否承认大规模语言模型可以成为主体,并且随之而来的是额外的争论负担。
相反,因为以上给出的原因,软胡扯只符合Frankfurt的消极需求——即,被我们归为普遍意义废话的定义,对真相的漠视。正如我们讨论的,ChatGPT至少也是个大话王,或者说胡话机器,因为如果它不是个主体,那么它就无法对真实保有任何态度,也不会向听众(或者,更恰当的说,它的用户)欺骗它的意图。
需要重点指出,即使这种更温和一点的胡扯也将产生令Frankfurt担忧的有害影响:正如他说的,“对真实的漠视是极为危险的……因为接受”胡扯泛滥是无害的“这种盲目轻浮的态度,人类特有的价值就被浪费了”(2002, p343)。将ChatGPT和其他类似大规模语言模型视为一种关心真相的存在,或用隐喻说明它们在追求真实陈述的过程中会犯错或制造“幻觉”,如此,我们正面临着接受胡扯和浪费意义的风险——因此,无论 ChatGPT 是硬废话还是软废话,它确实会说胡话,而且这确实很重要。
有了这个区别,我们现在要考虑一个分类问题:ChatGPT是硬胡扯,软胡扯或者两者皆非?我们认为,首先,ChatGPT和其他大规模语言模型很明显在软胡扯。然而,关于这些聊天机器人是否在硬胡扯的问题则要难应付一些,这取决于一系列关于ChatGPT能否被赋予意图。在第3.2节中,我们将通过几种方式使ChatGPT可以被理解为具有必要的意图。
我们不确定聊天机器人可以被正确的描述为拥有任何意图,我们将在之后的3.2节中深入的讨论这一点。但是我们很确定ChatGPT不打算传递真实,因此它在软胡扯。我们可以根据例子轻易的论证这一点。不论ChatGPT是否具有意图。如果ChatGPT完全没有意图,那它就不打算传递真相。因此,它对自己发言的真实性漠不关心,这就是软胡扯。
如果ChatGPT真的有意图呢?在1节中,我们讨论了ChatGPT不是为生成真实陈述而设计的,相反,他被设计为生成与人类文本无差别的文本。它的目的是令人信服而非精确。这些模型的基本架构揭示了这一点:它们被设计为“生成一段文本的可能延续”。有理由假设“成为一段文本的可能延续”,“真实”是一种方式;如果人类的准确性比偶然性更高,那么具有真实性的句子出现的可能性就会比虚假句子更大。这将使聊天机器人更加精准而非只是碰碰运气,但这并不意味着聊天机器人有意图传达真相。这和标准情况下胡扯的人类似,他们不在乎他们说的话是不是真的;优秀的胡话往往包含着部分真相,这就是让它听起来令人信服的部分。一个胡扯的人可以比在胡言乱语的人更准确一些,但同时依旧不关心他们言论的真实性。我们断定,即便聊天机器人可以被描述为有意图,它依旧无视其言论的真实性。它不想或不能关注它输出的真实性。
或许ChatGPT没能力关心真实是被传达了或是被隐藏了,因为它不能关心任何事物。所以,仅仅出于概念上的必然性,这与Frankfurt对于胡扯的标准之一相吻合。不过,这只能到此为止——一块石头也无法关心任何事物,说石头在胡扯很明显是荒谬的。同样,书籍可以包含胡话,但它们自身不算说胡话的人。不像石头——或者书籍——ChatGPT自己生成文本,并且它看起来独立于它的用户和设计者在发表讲话。尽管对于 ChatGPT 是否具有意图存在很大分歧,但人们普遍认为它产生的句子(通常)是有意义的(例如参见 Mandelkern 和 Linzen 2023)。
ChatGPT的功能不是传递真相或谎言,而是说服听众关于它陈述的——用Colbert恰当的造词——真心,ChatGPT被设计为使胡扯的尝试更有效(某种程度上书写,词典等都不是)。所以,似乎至少ChatGPT是在软胡扯:如果我们认定它没有意图,就没有任何对于人真实性的态度的误导,但他依旧在输出看起来真实的言论。我们得出的结论是,ChatGPT在软胡扯。
不过,ChatGPT会硬胡扯吗?评论家可能反对,把像ChatGPT这样的程序想成一个胡说八道的人简而言之是不合适的,因为(i)它们不是主体,或是与此相关地说,(ii)它们不会也不能有意图的去做任何事。
我们觉得这有点操之过急。首先,不论ChatGPT有没有动能性,它的创造者和用户都是有的。我们觉得,他们与之一同创造的是胡说八道。第二,我们认为,不看它的主体性,它还是具有功能的;这个功能赋予它特定的目标,并且有可能赋予其意图,这与我们对硬胡扯的定义相关联。
在我们继续之前,我们需要阐述当问到ChatGPT是否是个主体时我们到底想表达什么。这篇论文中,核心问题是ChatGPT是否具有意图和信念。它是否会刻意欺骗?它是否在任何字面意义下,如据说的那样拥有目标和目的?如果是,它是否有意就它表达的内容欺骗我们,或者仅仅是为了展示自己是一个合格的发言者?它是否有一种信念——追寻真相的内部表征状态?如果是,它的表述是否符合它的信念(在这种情况下它的虚假陈述可能就是类似幻境的某种东西)或者它的表述不符合它的信念——在这种情况下它就倾向于谎言或胡扯。我们将在3.2.2节中深入考虑这些问题。
还有一些哲学方面关于主体性的重要观点我们不会考虑。我们不考虑ChatGPT是否会做决定,是否具有自主权,或者意识;我们也不担心ChatGPT是否对其陈述和行为有道德责任(即便它们有这些属性和责任)。
我们认为即使ChatGPT自己不搞硬胡扯,它仍然是胡扯机器。使用它的人在胡说八道,因为他们(i)不关心它言语的真相,(ii)想要听众相信应用程序输出的内容。在Frankfurt看来,即便没有刻意胡说八道,胡扯仍旧是胡扯:如果有些话从开始就是胡扯,那么“他(或它)重复这些话的时候也是在胡扯,因为这些话的起源来自于一些不关心其言语真假的人” (2022, p340)。
这将问题带回原点:以ChatGPT创建的学生论文(越来越频繁)为例。如果学生关心准确性和真实性,他们就不会使用一个臭名昭著,凭空捏造来源的程序。同样,如果他们给它一个生成科学哲学文章的指令,然而它生成了Bakewell馅饼的配方,那么它就没有达到预期的效果。所以,关于认为ChatGPT是胡扯机器的想法似乎是正确的,但它好像也遗漏了一些东西:有人通过他们的声音,笔或文字处理器胡扯,但常规来说,我们不认为这些东西是胡扯机器,或者不认为其在以任何特别有趣的方式输出胡话——相反ChatGPT似乎的确有一些特别之处,这与它的运作方式有关,这使它不仅仅是一个工具,这也表明,认为“它是胡话的源头”可能是合理的。简单来说,认为ChatGPT像一支笔(可以被用来胡扯,但没了刻意和完全的自主引导行为就什么也创造不出来)或像一个在胡说八道的人(可以有意的,借着自己的主动性说胡话)都是不太正确的。当把它和“软胡扯和硬胡扯的区别”结合起来的时候,把ChatGPT当作一个胡扯机器的想法就很有帮助。再举一个学生虚假论文的例子:我想,我们都阅读过一些明显是使用过字典或辞典但缺乏深思熟虑的论文;文中使用高深晦涩的词汇不是因为它们是最佳选择,也不是因为它们混淆了真相,而仅仅是因为作者想传递一种他具有理解力和成熟老练的印象。在这种情况下,将字典称为胡扯大师是不合适的;但是将最终成果称为胡说八道却是合情合理的。所以,也许我们需要严格的说ChatGPT不是废物但是它以一种超越仅作为胡话载体的方式输出是胡话:它不会也不能关注它输出的真实性,同时,使用它的人也不传递真相或假象,而是说服听众这段文字是由一个关心且专注的主体写的。
ChatGPT自己会硬胡扯吗?如果会,它必须拥有意图和目的:它必须有意的欺骗听众,不是关于它陈述的内容,而是关于它的动机。回想一下硬胡扯的人,比如一个毫无预备的学生或者不称职政客,并不关心他们的陈述是真是假,但是却打算欺骗听众他们是所作所为。我们不认为 ChatGPT是一个主体或者像人类一样有意图(见Levenstein和Herrmann(即将出版)讨论的问题)。不过当随意聊天时,的确很容易用蕴含意图的语言来描绘它:ChatGPT到底想干嘛?它真的在意它生成文本的准确性吗?虽然可能不是字面上的,但我们认为ChatGPT给人一种强烈的感觉,它打算欺骗我们它的动机:它的目的不是使我们相信它发言的内容,而是把它自己描绘成一个像我们一样的“正常”对话者。相比之下,ChatGPT 混淆、撒谎或产生幻觉的感觉并不强烈。
我们面对的情况很简单:ChatGPT的主要功能是模仿人类说话。如果这个功能是有意识的,那就正是某种主体能硬胡扯所需的那种意图:运行这个功能的时候,ChatGPT试图欺骗观众它的动机。准去地说,在很多情况下它不会这么做。在这里我们将讨论这一功能是否产生一种意图,或最好被认为是一种意图。在下一节(3.2.3),我们会讲到ChatGPT没有类似的,可以将其称为虚构者、说谎者或幻觉者的功能或意图。
我们怎么知道ChatGPT在硬胡扯时的功能呢?如ChatGPT这样的程序被设计去成执行任务,而且这个任务与法兰克福认为的胡扯的人的意图非常相似,即欺骗听众关于活动本质的信息——在这个情况下,即欺骗听众使他们相信听到的内容来自一个有意图,有信念的存在。
ChatGPT的文本生成算法是在一种类似人工选择的过程中被开发和训练的。功能和选择过程有着与人类意图相同的指向性;自然主义心灵哲学家长期以来一直将它们与人类和动物心理状态的意向性联系起来。这种情况下,如果ChatGPT被认为拥有意图或类意识的状态,它的意图就是展示它自己(好像一个能沟通的主体或对话者)而非展示或传达事实。换句话说,它有我们认为是硬扯淡的意图。
将Dennett的意向性立场用在ChatGPT上时,我们可以认为它是有意图的。Dennett (1987: 17)将意向性立场解释为一种方法,去预测一个我们不知道目的的系统的行为。
“采用意向性立场……是为了——当然,只是短期内——用意图性术语,如“信念”和“目标”,去描述,预测并解释……行为,这是一种假设或假定合理性的操作” (Dennett, 1983: 345)。
Dennett建议如果我们知道一个系统是为何而设计,我们就可以基于它的基础做出预测(1987)。尽管我们知道ChatGPT是为聊天设计,也知道它的具体算法和它生成回应的方法是基于机器学习开发的,但我们不知道它如何工作和工作内容的具体细节。在这种无知的情况下,我们很容易引入意向性描述来帮助我们理解和预测ChatGPT在做什么。
当我们采用意向立场时,如果我们将传递真相的愿望归因于ChatGPT,那就会做出很差劲的预测。类似的,把“制造幻觉”归因于ChatGPT会使我们做出“好像它感知到了本不存在的东西”的预测,因为它说的话听起来像是对的,但它在做的事又好像是在编造某件事物。前一意图归因会使我们试图纠正它的信念,并修改它的输入——这种策略即使成功了也收效甚微。另一方面,如果我们把硬胡扯的意图归因于ChatGPT,我们会更容易找到其犯错误和传递虚假信息的原因。如果ChatGPT真的在做什么的话,它就是在试图将自己表现成一个人类。
由于认为ChatGPT在硬胡扯涉及支持思想和意义方面一或多个有争议的观点,直接将它想象成一个胡扯机器会更客观一些;不管该程序是否有意图,它很明显在它的文本中,就其活动的本质上欺骗它的听众和读者,在我们看来,这就是把它输出的内容称为胡说八道的原因。
虽然做出此类警告是有意义的,但这似乎并没有特别影响我们该如何思想和讨论ChatGPT以及胡扯:用它来生成论文或聊天的人并不考虑传递真相或掩盖真相(因为这两者都要求关注真相到底是什么),而且系统也不关心。至少,它大量生成软胡扯,而且介于关于意图归因本质某些有争议的假设,它也生成硬胡扯;就我们的目的而已,胡扯的具体形式并不重要:不论哪种形式,ChatGPT都在胡说八道。
我们已经讨论过为何要用胡扯这一术语而非“幻觉”来形容ChatGPT生成的言论。Edward(2023)也提到过“幻觉”这一术语的不恰当,他更喜欢用“虚构”这个词。为什么我的的提议比这个或别的选择更好呢?
我们反对幻觉这一术语是因为它带有某些误导性影响。当某人产生幻觉时,它们会拥有不同的感知体验,但实际上却没有感知到现实世界的某些特征(Macpherson, 2013),这里“感知”被认为是成功的术语使用,他们实际上没有感知到物体和属性。该术语却因为不同的原因并不适用于大规模语言模型s。第一,如Edwards(2023)指出的,幻觉这一术语赋予大规模语言模型s人性。Edwards同样提出将由此产生的问题归因于模型的“幻觉”会使创作者“因为AI模型的错误输出而怪罪AI,而非自己对输出负责”,我们可能需要警惕这种推卸责任的行为。大规模语言模型s不会去感受,所以它们肯定也不会“错误感受”。第二,大规模语言模型传递虚假言论不是它常规流程的异常或偏离形式(有人,比如关于感知的分裂主义者,称这就是制造幻觉)。当它的输出是真实地时候,经历地过程是完全一样的。
关于“幻觉”的讨论到此为止。Edward倾向的术语,“虚构”又如何呢?Edwards(2023)说道:
在人类心理学中,“虚构”出现在某人的记忆中断时,大脑在不违背其他记忆和常识的情况下将给补发填补起来。ChatGPT不像人脑那样工作,但“虚构”这个术语是个不错的比喻,因为这里起作用的是一种创造性填补空白的理论……。
正如Edwards指出,这是不完美的。再次重申,使用人类心理术语有将大规模语言模型s人格化的风险。
这个术语还表明,当大规模语言模型s生成虚假言论时,会发生一些特殊情况,也就是说,在这时——且只有在这时——它用虚假的东西“填补”记忆。这也很具有误导性。即使当ChatGPT给到我们正确答案时,它的过程也是预测下一个文本基础单元。在我们看来,总的来说,这不能表明ChatGPT在试图通过其言论传递准确的信息。但很有理由相信它没有一般意义上打算分享的这种信念,比如for Levenstein和Herrmann (即将出版)。在我们看来,它错误的表明了一般来说ChatGPT在去言论中试图传递真相。而它真的在追寻真相时,只是间接的,偶然的。
这就是为什么我们倾向于将ChatGPT描述为一个胡说八道的机器。这种术语避免了暗示在大规模语言模型的工作中存在感知或记忆。当它在输出是,我们也可以将其描述为胡扯。就像胡说八道的人一样,它的一些输出可能是正确的,而另一些则不然。与胡说八道的人一样,我们应该警惕依赖这些输出。
投资者,政策制定者和大量的普通群众基于对机器能力和功能的的隐喻性描述决定如何对待这些机器,如何对它们做出反应,而不是基于对其工作原理的深入技术理解。将它们的错误称为“制造幻觉”不是无害的:这会误导人们以为机器在某种程度上只是在错误感知,但依旧试图传递它们相信和感知到的东西。如我们所说,这是错误的比喻。机器不是在试图沟通它们相信或感知的事物。它们的非准确性不是因为错误感知或幻觉。如我们指出的,它们完全没有在试图传递信息。它们就是在胡扯。
将聊天机器人的不准确性称为“创造幻觉”助长了技术支持者对其能力的夸大宣传,并可能在一般群众中引起不必要的恐慌。这种说法还暗示了一些并不可行的解决不准确问题的办法,并可能误导专家们对人工智能对齐做出的努力。同时,在机器给出正确答案时,这种说法还可能导致对其产生错误的态度:即使机器是正确的,但不准确的回答表明它在胡说八道。将这些不准确称为“胡说八道”而不是“幻觉”,不仅更准确(正如我们所论证的那样),而且是在这个急需科普的领域里的一个优秀的科学和技术传播。
评论区
共 7 条评论热门最新