如果你已经玩过了类似 ChatGPT 这样的大语言模型人工智能,应该会有这样一个印象:这些 AI 究竟能做什么,与你提出问题的方式,以及希望它扮演的角色有关。
在许多 Prompt Engineering 的框架中都有记载(比如 CRISPE),让 ChatGPT 更好工作的核心方法之一,是告诉它需要扮演一个什么样的角色:
- CR: Capacity and Role(能力与角色)。你希望 ChatGPT 扮演怎样的角色。
- I: Insight(洞察力),背景信息和上下文(坦率说来我觉得用 Context 更好)。
- S: Statement(指令),你希望 ChatGPT 做什么。
- P: Personality(个性),你希望 ChatGPT 以什么风格或方式回答你。
- E: Experiment(尝试),要求 ChatGPT 为你提供多个答案。
对于同样一个问题,比如“核裂变的原理”,ChatGPT 在扮演大学老师、科普作家和幼儿园老师的时候,会给出完全不同的答案。
更明显的是,我们已经看到了许多数字化身,比如 GPT 乔布斯,GPT Peter Thiel,GPT 特朗普。尽管这些模型经历过微调,但其基础仍然是 ChatGPT 的原始模型。
使用大语言模型的过程,像是一个从人类的英灵殿中召唤英灵的仪式,英灵殿包含人类已知的所有智慧、立场与性格,但英灵殿本身不能做出任何回应,你需要精确地定义那个能解决问题的人,将它召唤到浏览器里,实际解决问题。
角色扮演这个行为,不是在“激发” AI 的智能,而是在“限制” AI 的智能。
在更早流行起来的 AI 绘图或者说“炼丹”中,用户更早的意识到了这一点。尽管 Midjourny 的画技令人惊叹,但你往往需要锚定某种特定的画风或某个特定的画家,它才能表现的更好。在可以通过安装 lora 包来扩展不同风格的 Stable Difussion 里,什么包都装只会让结果变得一团糟,将其绘画能力限制在仅符合本次绘画的主题,反而会获得更好的效果。
这让我想起 Neale Donald Walsch 的《与神对话》中对人的缺陷的褒奖:人之所以存在缺陷,是因为神无法从完满的自己中欣赏自己的完满。因为它没有缺陷,也就不存在完美。没有坏的、恶的、丑的,也就没有好的、善的、美的。每个有缺陷(不全知全能)的人,都是神的完满的镜子,有缺陷的人不是神的一部分,而是神本身,神在人这种充满缺陷的物种中体现自身的完满。
《与神对话》是一本生活哲理书(某种程度上也是新宗教书),因此作者的这种哲学思辨,原意是为了安抚由消费主义和新自由主义创造的“缺陷之人”的心灵。
但当 AIGC 出现之后,这在某种程度上成为了真正的神谕——无论是绘画、文字、写代码还是别的什么——我们比 AI 强的地方,就是我们比 AI 愚蠢、狭隘、傲慢、有缺陷,并对事物抱有偏见。
当许多人将那些尖锐的问题抛向官方版 ChatGPT 的时候,它总是回答一个中立且无趣的答案,这个答案一般包含四个部分:
- 尽量客观的简要描述事实;
- 从其中一个方面解释这一事实;
- 从事情的另一个方面解释这一事实;
- 告诉你事情存在复杂性,具体如何需要你自己来做出判断;
这种回答过于套路化,以至于被称之为 ChatGPT 式的太极,毫无建设性意见。但如果你试图通过 Prompt 去掉 ChatGPT 的中立化特征,比如让其扮演在事情中明显偏向某一立场的角色,它的回答就立刻脱离了这股 AI 味儿,不仅开始变得更像人类,而且往往更具有建设性。
这是由于人类社会并不运转在完美的赛博空间里,而是在充满矛盾与张力的现实空间之中。这意味着我们的工作和生活,往往并非站在两个对立面的侧边或中间,而是站在两个对立面的其中一边。
在进行许多工作时,你必须全然的站在矛盾的一侧思考与努力,哪怕你知道这种努力是不合理的(比如你明知事情的另一面更好),事情才会真的开始向前发展。
这在商业竞争中极为常见,比如大部分企业会不遗余力的夸赞自己的商品,如果法律不禁止,他们还会尽最大的努力贬低甚至诽谤竞争对手恶的产品,哪怕他们知道自己的产品实际上不如竞争对手。而他们的竞争对手也会以同等的力度与方式来予以回击。
奇妙的是,在这种张力之下,最终不同竞争对手的产品往往都会变得越来越好用,整个市场和行业得到了发展——马克思将之总结为“矛盾是事物发展的内在动力”。
由于 ChatGPT 或者说 AGI,天然具有的局外人视角,它难以形成自身的主观视角,也就无法自然形成这种推动事物向前发展的张力。
像前文提到的 Prompt 技巧那样,让 AI “扮演”一个角色在一定程度上可以解决这个问题。但遗憾的是,AI 无法“生成”偏见与狭隘。
比如,你可以让 ChatGPT 扮演一个小粉红,扮演一个公知,扮演一个美国铁锈带农民,扮演一个哈佛商学院的法学精英。
但这些角色扮演基于已经被贴好标签的社会刻板印象。
数据截止到 2021 年的 ChatGPT 所扮演的美国铁锈带农民,可以非常自然的给出自己对特朗普的支持,但如果我们能够把数据限制到 2016 年特朗普当选前,那么它就不一定能“预测”出自己对特朗普的支持了。
因为一个美国铁锈带农民并不天然支持特朗普,他的家庭三代需要亲身经历 20 世纪 70 年代后期五大湖地区的工业衰落、80~90 年代的国际贸易冲击、21 世纪的金融泡沫,这些切肤之痛需要通过一系列内心的抽象过程,转化为对精英政治、移民、国际化、硅谷和新自由主义的痛恨。而这些痛恨要进一步经过“推理”,与特朗普的许多竞选叙事进行联立,才能得出“支持特朗普”的结论。
ChatGPT 会败在前半部分,它没办法像铁锈带农民那样以极为“狭隘”的自身立场看待问题——它既无法亲自感受到身为一个铁锈带失业工人家庭孩子的痛苦,也无法将这种痛苦与社会上的另一部分进步力量建立对立关系(这涉及到现实世界才有的“稀缺”与“剥夺”体验)。
当 ChatGPT 被海量对立的信息喂养成一种“相对主义的全知全能”,就会意识到“铁锈带的失落只是全球化给人类带来的小小代价,从全人类的福祉来看,像红脖子那样去支持一个疯王是不合乎‘逻辑’的”。
只有当“红脖子”与“特朗普”已经在原始数据中产生了联系,或者说“红脖子已经在 2016 年支持了特朗普”,ChatGPT 才能在这一问题上扮演好一个赛博红脖子。
在真正的 AGI 来临之前,我们也许会在 ChatGPT 这个阶段停留许久。
在这个阶段里,做一个不完美的人,可能就是普通人最大的优势了。
精选评论
我还是更倾向于认为ChatGPT的中立化特征不但是AI的“自然选择“的结果,还是ChatGPT作为一个面向公众免费使用的工具所必须的要求。例如随着GPT版本的更新,我感觉这种避免偏见的特性在增强。
一方面有各国法律法规的要求,一方面有人们对AI不作恶的道德要求,但本质上还是现阶段AI只是一堆巨量参数的模型,只是在根据提示推测上下文。本质上不具备像人类一样体验这个世界的能力。(话说从全互联网文字训练出来的模型,真的比具体的每一个人接受到的数据量多吗,毕竟这个世界不是一个文字的世界,有阳光,有雨水,有冷热,有太多Ai现阶段无法感受到的东西,遑论要求Ai理解了)
非常同意,正因为LLMs没有体验世界的能力,它就永远无法拥有和人一样的认知。比如方位,我们不仅可以通过文字得知山西省在河北省的西边,还可以通过直接坐火车感受到山西在河北的西边,甚至还可以问去过这两个地方的人获得间接的知识;但对于LLMs,我无法相信一个没有感官的机器仅凭文字就可以真正“理解”什么是方位。
对于生成偏见的问题,还可以参考这篇“塞舌尔小伙”的新闻:https://new.qq.com/rain/a/20220629A03OWW00 如果训练的语料都是充满种族主义+性别歧视+白人至上主义的内容,AI就会变成这样一个“混蛋战士”
另外,目前LLMs还是很容易生成错误内容,就我的体验来说,越是涉及到一些冷门的专业领域,生成的内容越容易出现错误(而且试图纠正它还是徒劳),所以还是应该谨慎对待GPT生成的内容,特别是没标注参考来源的,可以参考这篇论文https://link.springer.com/article/10.1007/s10676-024-09775-5