如果你已经玩过了类似 ChatGPT 这样的大语言模型人工智能,应该会有这样一个印象:这些 AI 究竟能做什么,与你提出问题的方式,以及希望它扮演的角色有关。
在许多 Prompt Engineering 的框架中都有记载(比如 CRISPE),让 ChatGPT 更好工作的核心方法之一,是告诉它需要扮演一个什么样的角色:
CR: Capacity and Role(能力与角色)。你希望 ChatGPT 扮演怎样的角色。
I: Insight(洞察力),背景信息和上下文(坦率说来我觉得用 Context 更好)。
S: Statement(指令),你希望 ChatGPT 做什么。
P: Personality(个性),你希望 ChatGPT 以什么风格或方式回答你。
E: Experiment(尝试),要求 ChatGPT 为你提供多个答案。
对于同样一个问题,比如“核裂变的原理”,ChatGPT 在扮演大学老师、科普作家和幼儿园老师的时候,会给出完全不同的答案。
更明显的是,我们已经看到了许多数字化身,比如 GPT 乔布斯,GPT Peter Thiel,GPT 特朗普。尽管这些模型经历过微调,但其基础仍然是 ChatGPT 的原始模型。
使用大语言模型的过程,像是一个从人类的英灵殿中召唤英灵的仪式,英灵殿包含人类已知的所有智慧、立场与性格,但英灵殿本身不能做出任何回应,你需要精确地定义那个能解决问题的人,将它召唤到浏览器里,实际解决问题。
角色扮演这个行为,不是在“激发” AI 的智能,而是在“限制” AI 的智能。
在更早流行起来的 AI 绘图或者说“炼丹”中,用户更早的意识到了这一点。尽管 Midjourny 的画技令人惊叹,但你往往需要锚定某种特定的画风或某个特定的画家,它才能表现的更好。在可以通过安装 lora 包来扩展不同风格的 Stable Difussion 里,什么包都装只会让结果变得一团糟,将其绘画能力限制在仅符合本次绘画的主题,反而会获得更好的效果。
这让我想起 Neale Donald Walsch 的《与神对话》中对人的缺陷的褒奖:人之所以存在缺陷,是因为神无法从完满的自己中欣赏自己的完满。因为它没有缺陷,也就不存在完美。没有坏的、恶的、丑的,也就没有好的、善的、美的。每个有缺陷(不全知全能)的人,都是神的完满的镜子,有缺陷的人不是神的一部分,而是神本身,神在人这种充满缺陷的物种中体现自身的完满。
《与神对话》是一本生活哲理书(某种程度上也是新宗教书),因此作者的这种哲学思辨,原意是为了安抚由消费主义和新自由主义创造的“缺陷之人”的心灵。
但当 AIGC 出现之后,这在某种程度上成为了真正的神谕——无论是绘画、文字、写代码还是别的什么——我们比 AI 强的地方,就是我们比 AI 愚蠢、狭隘、傲慢、有缺陷,并对事物抱有偏见。
当许多人将那些尖锐的问题抛向官方版 ChatGPT 的时候,它总是回答一个中立且无趣的答案,这个答案一般包含四个部分:
尽量客观的简要描述事实;从其中一个方面解释这一事实;从事情的另一个方面解释这一事实;告诉你事情存在复杂性,具体如何需要你自己来做出判断;这种回答过于套路化,以至于被称之为 ChatGPT 式的太极,毫无建设性意见。但如果你试图通过 Prompt 去掉 ChatGPT 的中立化特征,比如让其扮演在事情中明显偏向某一立场的角色,它的回答就立刻脱离了这股 AI 味儿,不仅开始变得更像人类,而且往往更具有建设性。
这是由于人类社会并不运转在完美的赛博空间里,而是在充满矛盾与张力的现实空间之中。这意味着我们的工作和生活,往往并非站在两个对立面的侧边或中间,而是站在两个对立面的其中一边。
在进行许多工作时,你必须全然的站在矛盾的一侧思考与努力,哪怕你知道这种努力是不合理的(比如你明知事情的另一面更好),事情才会真的开始向前发展。
这在商业竞争中极为常见,比如大部分企业会不遗余力的夸赞自己的商品,如果法律不禁止,他们还会尽最大的努力贬低甚至诽谤竞争对手恶的产品,哪怕他们知道自己的产品实际上不如竞争对手。而他们的竞争对手也会以同等的力度与方式来予以回击。
奇妙的是,在这种张力之下,最终不同竞争对手的产品往往都会变得越来越好用,整个市场和行业得到了发展——马克思将之总结为“矛盾是事物发展的内在动力”。
由于 ChatGPT 或者说 AGI,天然具有的局外人视角,它难以形成自身的主观视角,也就无法自然形成这种推动事物向前发展的张力。
像前文提到的 Prompt 技巧那样,让 AI “扮演”一个角色在一定程度上可以解决这个问题。但遗憾的是,AI 无法“生成”偏见与狭隘。
比如,你可以让 ChatGPT 扮演一个小粉红,扮演一个公知,扮演一个美国铁锈带农民,扮演一个哈佛商学院的法学精英。
但这些角色扮演基于已经被贴好标签的社会刻板印象。
数据截止到 2021 年的 ChatGPT 所扮演的美国铁锈带农民,可以非常自然的给出自己对特朗普的支持,但如果我们能够把数据限制到 2016 年特朗普当选前,那么它就不一定能“预测”出自己对特朗普的支持了。
因为一个美国铁锈带农民并不天然支持特朗普,他的家庭三代需要亲身经历 20 世纪 70 年代后期五大湖地区的工业衰落、80~90 年代的国际贸易冲击、21 世纪的金融泡沫,这些切肤之痛需要通过一系列内心的抽象过程,转化为对精英政治、移民、国际化、硅谷和新自由主义的痛恨。而这些痛恨要进一步经过“推理”,与特朗普的许多竞选叙事进行联立,才能得出“支持特朗普”的结论。
ChatGPT 会败在前半部分,它没办法像铁锈带农民那样以极为“狭隘”的自身立场看待问题——它既无法亲自感受到身为一个铁锈带失业工人家庭孩子的痛苦,也无法将这种痛苦与社会上的另一部分进步力量建立对立关系(这涉及到现实世界才有的“稀缺”与“剥夺”体验)。
当 ChatGPT 被海量对立的信息喂养成一种“相对主义的全知全能”,就会意识到“铁锈带的失落只是全球化给人类带来的小小代价,从全人类的福祉来看,像红脖子那样去支持一个疯王是不合乎‘逻辑’的”。
只有当“红脖子”与“特朗普”已经在原始数据中产生了联系,或者说“红脖子已经在 2016 年支持了特朗普”,ChatGPT 才能在这一问题上扮演好一个赛博红脖子。
在真正的 AGI 来临之前,我们也许会在 ChatGPT 这个阶段停留许久。
在这个阶段里,做一个不完美的人,可能就是普通人最大的优势了。