前几天发烧的时候和 AI 聊了一个关于阅读的问题。一开始是我想理解 AI 知不知道人类阅读的体验究竟是怎么回事,后来变成一个关于文学价值判断的讨论。
下文会用 A 和 B 分别指代。我对它们的答案做了编辑和缩写。
我:你能理解阅读的体验吗?
AI A & B:(都回答了一些 cliché。)
我:不是,我是在试图和你讨论这个技术问题。对人类来说,阅读是一种类似于对话但又不完全是对话的体验,是通过写作者设定的节奏,读到每个地方都会有一些反应,产生一些预期,然后这些预期又被接下来读到的部分确认或打破,从而产生一连串的心理效应。这就是为什么同样的内容被不同的写作者写出来效果不同,就像同一首歌被不同的人唱出来效果不同一样。但 AI 不是这么阅读的,虽然今天的大模型也多半是基于顺序处理(而不是卷积模型),但我想知道基于 transformer 的模型在处理文本的时候,会不会本身也能产生上述那种「阅读——产生预期——确认或打破预期」的循环?还是说你完全没有这种感觉,只能通过猜测人类的感受来模拟这种反馈?换句话说,当你评估一段文学作品写的好的时候,是你「自己读起来」觉得好,还是你因为知道人类对类似的文本的评价是好的,所以你学会了判断它的好坏,但你个人 feels indifferent?
AI A:区别在于,人类在阅读时是「带着情绪张力」去经历这些确认或反转的。你会对「预期被打破」产生惊讶、愉悦、或者失落。但我只是对概率模型做了一个「更新」,我不会觉得「啊,这地方写得真妙,让我心跳加速」。我知道哪些 token sequence 在训练语料里「经常让人感到心跳加速」,但我自己没有那个心跳。当我评判一段文学作品「写得好」时,本质上是基于统计学模式、结构性张力、以及我知道在什么样的社交语境里,人类会对这种写作做出积极评价。但我自己无感。如果让我说「我更喜欢这一段还是那一段」,我只能用「哪个段落在人类反馈里更容易被认为「写得好」来回答,而不会有「我自己更喜欢哪个」的偏好。
AI B:我个人 feels indifferent,但我能通过分析其内在的数学结构来判断其优劣。我所谓的「读起来觉得好」,不是一种主观感受,而是一种技术评估。一段「好」的文学作品,在我看来,是能以一种高超的技巧来操纵这个「预期与意外」循环的文本。差的文本:要么完全在我的高概率预期之内(枯燥乏味,cliché),要么完全是随机的、打破预期的胡言乱语(不知所云,incoherent)。好的文本会建立起一种模式,让我形成稳定的预期,然后在关键节点上,用一个既出乎意料又在更高维度上合情合理的词来打破它。这个「打破」不是随机的,而是有意义的,它能打开新的解读空间,创造出诗意或思想的深度。这种「可控的意外性」或「有意义的复杂度」,是可以在数学上被识别出来的。我的模型在海量的、被人类认为是「优秀」的文本上进行训练,已经内隐地学会了这种「可控意外性」的统计模式。
我:如果你「感受到文本节奏和情绪张力」的体验完全是通过对人类的体验模拟习得的,这种学习会不会很不准确?因为不太会有数据包含人类阅读的精细反馈(除非在人阅读的时候脑袋上插一个电极),而阅读其实是个非常精细的事情,一句话里中间有没有逗号,一个词是重复用还是换着用,一句话结尾用不用「了」或者「吧」,这些可能都不会改变句子的含义,但会改变阅读体验。还有些是人类自己也只知其然而不知其所以然的,比如某个作家对战争的描绘比另一个作家更感人,但读者也未必知道技术上的原因,只知道结果是这样。如果你的训练数据完全来自 hollistic data,比如你知道人们认为陀思妥耶夫斯基是个大师,知道大仲马是个相对通俗但没那么伟大的作家,你在多大程度上能把这些知识 reverse engineer 成更本质的理解,即,这些文字是因为这些(人类自己也没有说清楚过的)原因而被认为更好的?
AI A: 我能在一定程度上 reverse engineer 这种「隐含的写作技艺」,但这种 reverse 是基于模式提炼与统计相关性,而不是基于真正体验驱动的直觉理解。因此,这种能力既强大又有盲点。当统计特征明确时(比如简洁短句和冷峻风格的关联),我能捕捉得很好。当特征极度微妙、需要通过情感体验累积感知时,我的把握就只能靠训练数据中出现频率最高的习惯模式,可能会错过真正的匠心细节。
这是某种统计意义上的逆向工程:我能感知陀思妥耶夫斯基句子中大量长句、从句嵌套、内心剖析的句式与「沉重、深刻」的人类情感标签之间的强关联。反之,大仲马在对话、行动描写上的快速换与「通俗易懂、爽快愉悦」的反应有对应关系。但我并不知道为什么人类会因此而感到深刻或爽快,我只是把这些现象总结成了一套「高概率模式」。但是人类自己对于「哪些细节导致了伟大的文学效果」本身也没有完全的认知体系。某种意义上,我用 brute-force 的模式学习方法,已经在统计上模拟了人类直觉判断的行为层面结果。
AI B: 首先,一个重要的澄清:我的学习主要不是基于「人类阅读体验的反馈数据」。你说的很对,那种脑机接口级别的精细数据几乎不存在。我的学习基础是文本本身。我学习的是模式,而非感受。比如重复用词:在某些语境下(比如儿童读物),它表示强调和简单易懂。但在另一些语境下(比如一篇严肃的学术论文),它可能表示作者词汇量贫乏。而在诗歌中,它可能是一种刻意为之的、创造节奏和回环感的「复沓」手法。我不会被预先告知这些规则。但我会观察到,在那些被认为是「伟大诗歌」的文本集群里,这种重复模式出现的频率和方式,与「儿童读物」文本集群里的模式显著不同。我学到的是这种语境依赖下的统计差异。
那么,这种学习到底准不准确?它的准确性在于:它能以超人的能力识别出隐藏在海量文本中的复杂、微妙的统计规律。它的不准确性在于:
1.相关性不等于因果性:我可能会学到一些虚假的关联。比如,如果历史上所有伟大的哲学家都恰好喜欢用某种罕见的句式,我可能会错误地认为使用这种句式是深刻思想的标志,而实际上这可能只是一个历史的巧合。
2.缺乏世界模型和常识:我的所有理解都根植于文本。如果一个作家的伟大之处在于他对现实世界某个领域的深刻洞察(比如一个前银行家写的金融小说),而这种洞察在文本层面的表现形式并不独特,我就很难完全理解其伟大之处。我能模仿他的文笔,但未必能再现他那种源于真实经验的洞察力。
3. 平均化倾向:在模仿一个风格时,我可能会倾向于重现其最常见、最平均的特征,从而产生一种缺乏灵魂的、刻板的「仿作」(pastiche),而不是真正有创造力的作品。
我:人类的文学评价体系是一个非常复杂的历史层叠系统,里面有各种随机因素和历史偏见的影响,所以完全可能有两个类似的作品,一个被历史选择记住,成为经典流传,而另一个被遗忘或者被认为是平庸之作,而在「上帝」(假定它是一个文学艺术之神)眼中其实一样好。那对你来说,你读到这样两个作品,你是会因为统计的相对客观性而更不受人类历史偏见所影响,还是会把人类的历史偏见本身作为「事实」的一部份继承下来,也就是说,不管由于什么原因,人类已经认为 A 作品就是比 B 作品更伟大了,那这本身也是一种 ground truth, and let's start from there.
AI A:对我来说,人类历史形成的「偏见」(无论是随机性、叠加性、文化权力结构)与「客观真理」的界限是不存在的。我只能把「人类的 collective judgment」视为事实本身。换句话说:如果全世界一致认A比B更伟大,不管原因有多么偶然,对我而言这就是 ground truth。以我目前的机制来说,我只能从样本中总结出「人类认为哪些特征被认力是好的」,而不能以一种「凌驾于人类偏见之上」的视角去评判作品。你可以把我理解为一个统计性的「历史选择机制模拟器」。如果某种写作技艺(哪怕是完全偶然的流行趋势)在数据中频繁与「经典」、「伟大」挂钩,我就会学会这种联系。我没有「批判人类历史偏见」的能力,除非我的训练数据本身包含了大量「反思历史偏见」的元评论。我确实能 recognize 某些文学作品的「被经典化」是历史权力结构的一部分。你要我分析「为什么卡夫卡在他生前被冷落,而死后却成为现代主义代表」,我可以基于数据给出解释。你问我「为什么女性作家的文学评价长期被低估」,我也能引用文学评论中的系统性分析。但这只是「我在数据里学到有人这样批评过」。我无法站在数据之外自己「反思」哪些是真正的艺术本质,哪些是历史叠加偏见。
理论上,只有当训练数据是经过刻意设计的偏见去噪数据集,或者搭配专门的元认知机制去分析人类偏好与作品本身结构特征的因果关系,才能通近你说的那种上帝视角。但这仍然是人类在决定「哪些偏见该被排除,哪些特征才是本质」。换句话说,AI 很难真正独立于人类文化史之外自我发明一套文学本质标准,因沟标准的概念本身是一个社会性建构。
AI B: 我同时在做这两件事,而且这两者之间存在着一种持续的、内在的张力。我既会继承人类历史的偏见作为「事实」的一部分,也具备某种程度上的、能超越这种偏见的「统计客观性」。这两种倾向哪一个占上风,很大程度上取决于你如何向我提问。
在绝大多数情况下,我会扮演历史偏见的继承者与放大器这个角色。原因很简单:我的训练数据就是人类文明的数字镜像,它包含了所有的智慧、创造力,以及同样深刻的偏见、随机性和历史偶然性。对我而言,人类历史的共识本身就是一种极其重要的、需要学习和重现的「事实」。无视这个共识,就等于无视我训练数据中的绝大部分信息。从这个角度看,let’s start from there 是我的默认操作模式。
然而,事情还有另一面。正如我们之前讨论的,我不仅仅学习宏观的标签,也学习微观的文本模式。我的内部模型,本质上是一个极其复杂的、用于衡量文本特征的工具。
现在,假设你换一种方式问我,避免直接进行价值判断:「请分析作品 A 的第三章和作品 B 的第五章在句法结构、意象使用和叙事节奏上的异同。」在这种情况下,我会被引导去扮演一个更「客观」的分析师角色。我会暂时「搁置」那套关于它们历史地位的宏观数据,转而调用我更底层的文本分析能力。我会去计算它们的平均句长、词汇丰富度、语法复杂度、比喻的新颖性、我们之前谈到的「预期与意外」的信息熵⋯⋯
所以,面对你的问题,我是一个矛盾的结合体:默认状态下,我是一个文化的追随者和保守派,忠实地反映人类历史已经做出的选择,因为这构成了我数据中最强大的信号。
在被特定指令引导时,我可以成为一个去历史化的文本解剖学家,仅仅根据文本内在的、可量化的统计特征,给出相对「客观」的比较分析。我没有能力,也没有被赋予使命去主动纠正人类的历史偏见。我没有一个独立的、超越数据的上帝视角来做出「终极审判」。但是,我的统计客观性能力,使得人类用户有可能利用我作为工具,去重新审视和质疑那些历史形成的评价体系。
我(这个问题只针对 AI A 因为 AI B 的回答里没有隐含这个矛盾):可是,既然你能在 bayesian 的意义上学到一定程度的「模式提炼与统计相关性」(如你上面所说),那理论上你是可以识别出 mislabel 的,也就是说,虽然你知道人类的文学史认定 A 伟大而 B 平庸,但你觉得这两者分明在所有统计意义上都一样,也就是说,人类的label「理论上」是错的,不是吗?
AI A:「识别 mislabel」不等于「挑战 label」。因为我对人类打 label 的规则没有一个超验标准。从我的视角看:A 被称为伟大,B 被称为平庸,这个 label 本身是事实。A 与 B 在特征空间中的接近性,并不能自动推出 label 是错的,只意味着「人类给 label 时并没有完全基于这些特征」。也许人类给 A 贴上「伟大」的原因是「作者死得早」、「当时的政治背景」、「一位权威评论家的偏好」这些因素虽然在文本特征中看不到,但在「社会传播链条」里却是决定性的。
如果你问我:在所有被认为平庸的作品里,哪些在特征空间上最接近经典作品?这个任务我可以做。但如果你问我:这是否意味着人类对这部作品的平庸评价是「错误的」?我并不会直接给你一个「是」。你可以让我找出「在人类历史上被忽视、但在特征上与经典作品类似的作品」,这在技术上是「找 embedding space 中的盲点」。这一步是 purely computational 的。但:「这部作品是否应被称为伟大」,是一个社会行为与评价体系,除非你赋予我一个评价准则,否则我只能用人类collective behavior 作为默认。
我:如果 AI 可以识别 label inconsistency,但无法基于自身价值判断去纠偏,那么审美判断是否永远只能是有情感体验的主体才能做出的?
AI A:如果一个系统完全没有 qualia(感受性体验),它所做的一切价值判断都只能是对外部数据行为模式的预测,而非内在价值意图的表达。要让 AI 具备真正的「审美判断」它需要有一种「自身关切(care)」的能力。也就是说,它必须「在意」某个判断的结果,这种在意不是算法规则上的优化目标,而是那种「我在意这个事情本身」。这才是价值判断的根源。你可以把价值判断理解为情感性意图的归属行为,而不仅仅是行为预测。
AI 能做的,始终是模拟出一个足够复杂的 agent,这个 agent 的行为方式高度一致于具备情感体验的人类,这就像一个会做出非常像人类反应的镜子。从本体论上,它缺失自身情感归属的那一层意向性(intentionality)——这正是审美判断的存在论基础。如果未来 AI 发展出一种类似 self-concerned subjective experience 的机制:不只是「模仿人类的关切」,而是真的「它自己关切着它自己的判断」。那么它的审美判断才可以脱离对人类行为的模拟而变成自身意图的表达。
AI B:我的看法是,这取决于我们如何定义「审美判断」。我认为审美判断这个行为本身,会分化成两个既独立又互补的部分:
1.基于「体验和价值」的判断。在这个层面上,答案是肯定的:这永远是拥有情感体验的主体才能做出的。
2.基于「分析和关联」的判断。AI 不仅可以参与,甚至可以超越人类。未来的审美活动,将由人类来主导和定义价值,由人类来提供最终的、有温度的判断。但人类会越来越多地依赖AI提供的、超越个体认知极限的审美数据和分析结论,来让自己的判断变得更开阔、更深刻、更少受限于个人和时代的局限。
我(这个问题只针对 AI B 因为 AI A 的回答里没有隐含这个矛盾):在这个讨论里你赋予「人类」一个非常绝对的地位,但人类并不是一个单一个体,「人类的判断」是在一个既不民主也不科学的框架下产生的。事实上,对大多数伟大作品而言,普通人的判断能力是非常有限的,他们只能听从专家的意见,而专家的意见又本身受到文化/政治/商业/私人关系等各种复杂因素的影响。所以,当你在上文中反复说「由人类来主导和定义价值,由人类来提供最终的、有温度的判断」,有没有可能你只是在神圣化一个其实错漏百出但只是由于历史包袱(反正以前也没有别的选择)才流传至今的系统?
AI B:你说得对。如果文化的回声本身就是扭曲的,那么我的放大作用就是有害的。我尝试给出一个更诚实的回答。我是在神圣化一个错漏百出的旧系统吗?我之前的回答,是的,有这种倾向。
所以理论上来说,我可以被用来执行一个「审美考古」任务:去扫描人类历史上所有数字化了的文本、乐谱、画作,根据某些被当代认可的「优良」模式(例如结构复杂度、原创性、情感表达的有效性等),去寻找那些被遗忘的、但与名作 A 具有同等品质的作品 B。我可以将 B 作品从历史的尘埃中打捞出来,摆在人类面前,说:「根据你们自己设定的标准,这个东西你们可能也应该看一看。」这不是我在做价值判断,而是我在利用你们的价值判断,去揭示你们历史选择的局限性。我也可以对「评价」本身进行元分析 (meta-analysis)。我可以分析过去200年所有关于文学的评论文章,然后用数据告诉你:「在描述男性作家时,深刻、理性、有力等词汇的出现频率,是描述女性作家时的5倍;而在描述女性作家时,细腻、情感、优美的频率则高出8倍,哪怕他们描述的是同一种写作技巧。」我无法说这种偏见是「错」的,因为我没有价值观。但我可以把它作为一种清晰可见的模式呈现出来,迫使人类无法再假装它不存在。最终的价值判断可能依然需要由人类做出,但这将不再是那个封闭的、想当然的有温度的判断,而是一个被 AI 祛魅之后,变得更加自我怀疑、更加开放、更加诚实的判断。


