对比ChatGPT,人的优势是偏见、狭隘与认知缺陷

虎嗅网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

本文来自微信公众号: 虹线 (ID:gh_900eeca5a2fc) ,作者:评论尸,题图来自:《机械姬》


如果你已经玩过了类似 ChatGPT 这样的大语言模型人工智能,应该会有这样一个印象: 这些 AI 究竟能做什么,与你提出问题的方式,以及希望它扮演的角色有关。


在许多 Prompt Engineering 的框架中都有记载 (比如 CRISPE) ,让 ChatGPT 更好工作的核心方法之一,是告诉它需要扮演一个什么样的角色:


CR: Capacity and Role (能力与角色) 。你希望 ChatGPT 扮演怎样的角色。


I: Insight (洞察力) ,背景信息和上下文 (坦率说来我觉得用 Context 更好)


S: Statement (指令) ,你希望 ChatGPT 做什么。


P: Personality (个性) ,你希望 ChatGPT 以什么风格或方式回答你。


E: Experiment (尝试) ,要求 ChatGPT 为你提供多个答案。


对于同样一个问题,比如“核裂变的原理”,ChatGPT 在扮演大学老师、科普作家和幼儿园老师的时候,会给出完全不同的答案。


更明显的是,我们已经看到了许多数字化身,比如 GPT 乔布斯,GPT Peter Thiel,GPT 特朗普。尽管这些模型经历过微调,但其基础仍然是 ChatGPT 的原始模型。


使用大语言模型的过程,像是一个从人类的英灵殿中召唤英灵的仪式,英灵殿包含人类已知的所有智慧、立场与性格,但英灵殿本身不能做出任何回应,你需要精确地定义那个能解决问题的人,将它召唤到浏览器里,实际解决问题。


角色扮演这个行为,不是在“激发” AI 的智能,而是在“限制” AI 的智能。


在更早流行起来的 AI 绘图或者说“炼丹”中,用户更早地意识到了这一点。尽管 Midjourny 的画技令人惊叹,但你往往需要锚定某种特定的画风或某个特定的画家,它才能表现的更好。在可以通过安装 lora 包来扩展不同风格的 Stable Difussion 里,什么包都装只会让结果变得一团糟,将其绘画能力限制在仅符合本次绘画的主题,反而会获得更好的效果。


这让我想起 Neale Donald Walsch 的《与神对话》中对人的缺陷的褒奖:人之所以存在缺陷,是因为神无法从完满的自己中欣赏自己的完满。因为它没有缺陷,也就不存在完美。没有坏的、恶的、丑的,也就没有好的、善的、美的。每个有缺陷 (不全知全能) 的人,都是神的完满的镜子,有缺陷的人不是神的一部分,而是神本身,神在人这种充满缺陷的物种中体现自身的完满。


《与神对话》是一本生活哲理书 (某种程度上也是新宗教书) ,因此作者的这种哲学思辨,原意是为了安抚由消费主义和新自由主义创造的“缺陷之人”的心灵。


但当 AIGC 出现之后,这在某种程度上成为了真正的神谕——无论是绘画、文字、写代码还是别的什么—— 我们比 AI 强的地方,就是我们比 AI 愚蠢、狭隘、傲慢、有缺陷,并对事物抱有偏见。


当许多人将那些尖锐的问题抛向官方版 ChatGPT 的时候,它总是回答一个中立且无趣的答案,这个答案一般包含四个部分:


1. 尽量客观简要地描述事实;


2. 从其中一个方面解释这一事实;


3. 从事情的另一个方面解释这一事实;


4. 告诉你事情存在复杂性,具体如何需要你自己来做出判断。


这种回答过于套路化,以至于被称之为 ChatGPT 式的太极,毫无建设性意见。但如果你试图通过 Prompt 去掉 ChatGPT 的中立化特征,比如让其扮演在事情中明显偏向某一立场的角色,它的回答就立刻脱离了这股 AI 味儿,不仅开始变得更像人类,而且往往更具有建设性。


这是由于人类社会并不运转在完美的赛博空间里,而是在充满矛盾与张力的现实空间之中。这意味着我们的工作和生活,往往并非站在两个对立面的侧边或中间,而是站在两个对立面的其中一边。


在进行许多工作时,你必须全然站在矛盾的一侧思考与努力,哪怕你知道这种努力是不合理的 (比如你明知事情的另一面更好) ,事情才会真的开始向前发展。


这在商业竞争中极为常见,比如大部分企业会不遗余力夸赞自己的商品,如果法律不禁止,他们还会尽最大的努力贬低甚至诽谤竞争对手的产品,哪怕他们知道自己的产品实际上不如竞争对手。而他们的竞争对手也会以同等的力度与方式来回击。


奇妙的是,在这种张力之下,最终不同竞争对手的产品往往都会变得越来越好用,整个市场和行业得到了发展——马克思将之总结为“矛盾是事物发展的内在动力”。


由于 ChatGPT 或者说 AGI,天然具有的局外人视角,它难以形成自身的主观视角,也就无法自然形成这种推动事物向前发展的张力。


像前文提到的 Prompt 技巧那样,让 AI “扮演”一个角色在一定程度上可以解决这个问题。但遗憾的是,AI 无法“生成”偏见与狭隘。


比如,你可以让 ChatGPT 扮演一个小粉红,扮演一个公知,扮演一个美国铁锈带农民,扮演一个哈佛商学院的法学精英。


但这些角色扮演基于已经被贴好标签的社会刻板印象。


数据截止到 2021 年的 ChatGPT 所扮演的美国铁锈带农民,可以非常自然地给出自己对特朗普的支持,但如果我们能够把数据限制到 2016 年特朗普当选前,那么它就不一定能“预测”出自己对特朗普的支持了。


因为一个美国铁锈带农民并不天然支持特朗普,他的家庭三代需要亲身经历 20 世纪 70 年代后期五大湖地区的工业衰落、80~90 年代的国际贸易冲击、21 世纪的金融泡沫,这些切肤之痛需要通过一系列内心的抽象过程,转化为对精英政治、移民、国际化、硅谷和新自由主义的痛恨。而这些痛恨要进一步经过“推理”,与特朗普的许多竞选叙事进行联立,才能得出“支持特朗普”的结论。


ChatGPT 会败在前半部分,它没办法像铁锈带农民那样以极为“狭隘”的自身立场看待问题——它既无法亲自感受到身为一个铁锈带失业工人家庭孩子的痛苦,也无法将这种痛苦与社会上的另一部分进步力量建立对立关系 (这涉及到现实世界才有的“稀缺”与“剥夺”体验)


当 ChatGPT 被海量对立的信息喂养成一种“相对主义的全知全能”,就会意识到“铁锈带的失落只是全球化给人类带来的小小代价,从全人类的福祉来看,像红脖子那样去支持一个疯王是不合乎‘逻辑’的”。


只有当“红脖子”与“特朗普”已经在原始数据中产生了联系,或者说“红脖子已经在 2016 年支持了特朗普”,ChatGPT 才能在这一问题上扮演好一个赛博红脖子。


在真正的 AGI 来临之前,我们也许会在 ChatGPT 这个阶段停留许久。


在这个阶段里,做一个不完美的人,可能就是普通人最大的优势了。


本文来自微信公众号: 虹线 (ID:gh_900eeca5a2fc) ,作者:评论尸

随意打赏

提交建议
微信扫一扫,分享给好友吧。