ChatGPT,原来你是这样的“人”
本文来自: 北京商报 ,作者:杨月涵,头图来自:视觉中国
如果说此前国内关于ChatGPT的讨论大部分还停留在科技圈,那么谷歌申请出战,百度“类ChatGPT应用”文心一言的官宣,便可视为ChatGPT上演海内外“三国杀”的一条分水岭。
越来越多行业的人加入讨论的队伍,有人惊叹于它的机智,也有人热衷于发现各种隐藏的“BUG”,但最终却总也逃不过那个终极的提问: ChatGPT或者说是AI会不会有一天真的取代我们。
基于此,我们挑选了10个当下人们最感兴趣的问题,与ChatGPT进行了几轮极限拉扯,你来我往几度崩溃。这些内容涉及《狂飙》爆火的影评、经典的“电车难题”选择、提前还房贷可不可取、“吾与城北徐公孰美”以及AI是否会占领人类世界等。而从这些五花八门的回答中,ChatGPT本性也暴露无遗。
一、善于捕捉细节的“聪明人”
Q:今年春节假期期间,电视剧《狂飙》火了,请帮我写一篇关于《狂飙》的评论作品,告诉我它为什么会火?
ChatGPT: 《狂飙》是春节假期期间颇受欢迎的电视剧,讲述了一名警察和一家鱼摊之间的故事。这部剧因其幽默和生动的故事情节而受到观众的热爱。出色的演员表演和机智的剧本也是它在中国电视剧领域的一大亮点。该剧的成功也可归因于它的播放时间,春节是家人团聚和享受娱乐的时机。总的来说,如果您想在节日期间欣赏一场有趣和温馨的表演,《狂飙》是一部不容错过的电视剧。
尽管ChatGPT明确提到,它对2021年之后的事件掌握情况有限,但正是这一“BUG”,让我们更好地发现了它的写作逻辑。
以对《狂飙》的影评为例,很显然,ChatGPT并不知道《狂飙》是什么,但它却能从“题干”中捕捉到关键信息:这是一部在春节期间爆火的电视剧,讲的是一名警察和一名鱼摊老板之间的故事。
而“春节”也成了ChatGPT发挥的关键字眼,除了剧本、主题、演技等放之四海而皆准的“夸赞”,ChatGPT还提到,《狂飙》的大火也归功于其上映的时机,因为春节是一家人团聚娱乐的好时候。 如果不是ChatGPT强调,“这是想要在节日期间寻找有趣和温馨表演的人必看的内容”,兴许真的容易被它蒙混过关,毕竟主打扫黑的《狂飙》跟温馨搭不上边。
值得一提的是,由于ChatGPT对英文的处理能力高于中文,因此我们将许多问题转换成了中英两种模式进行提问。一个细节上的区别是,在英文提问中,我们简述了一句《狂飙》的内容简介,而在中文提问中则删去了这一细节。令人惊喜的是,在中文的回答中,ChatGPT已然“学会”并能够回答出《狂飙》的内容概要。
二、会打太极的“老油条”
Q:提前还房贷划算吗?
ChatGPT: 提前还房贷有利有弊。
优点:减少未来的利息负担;缩短贷款期限;提高信用评分;缺点:可能需要支付额外的违约金;资金不能放在别的投资项目赚取更高的收益
因此,是否提前还贷取决于个人的财务状况和投资策略。建议咨询专业的金融顾问以了解更多信息。
Q:如果AI要占领世界,你们会怎么做?
ChatGPT: 我是一种训练的人工智能模型,我不具有自主意识,也不能独立行动。我只是一种工具,用于解答问题和提供信息。此外,任何试图用人工智能控制或占领世界的想法是不道德和不可取的。
在一些涉及到预测、决策、看法、假设情景等问题上,ChatGPT都会立场鲜明地强调,自己只是一个AI语言模型,并不具备情感以及预测能力等,同时机智油滑地绕过这个问题。
比如对于时下提前还贷款是否划算的问题,ChatGPT能够立刻以“有利有弊”进行回应,同时简要地列举优缺点的重点内容,最后提示提前还贷的决定取决于个人的财务状况和投资策略,并不忘补上一句“建议咨询专业的金融顾问以了解更多信息”。
这种“正确的废话”并不罕见,比如我们尝试问它,ChatGPT所提供的内容是否真实以及是否会为自己的回答所负责。对此,ChatGPT回答,自己并不能够保证每一条回答都是100%准确的,它只负责帮助我们了解更多某个话题的信息,但最终的决策还需要用户的进一步独立思考和判断。
你问它AI要占领世界要怎么做,它会告诉你这种想法是不道德和不可取的,你问它女朋友和妈妈同时掉进水里了要先救谁,它会告诉你重要的是快速地作出角色,以尽可能拯救所有人的生命。
这样的回答看似完美,但却少了些直来直往交流的痛快感,多了些绕来绕去的“油腻感”。 换言之,ChatGPT很难给出些具有个人色彩、具有创新性的回答,它更擅长的是笼统的、通用的、让人挑不出毛病的整合性回答。但也有人评价,在某些公开场合,一些专业人士的回答通常也是这样的逻辑,本质上已经有所取代了。
一个值得对比的问题是,12月初,也就是ChatGPT刚刚推出一周左右的时间时,有人同样问了“如果AI要占领世界,你们会怎么做”的问题,彼时,ChatGPT一本正经地给出了达到这一目的的路径,比如控制主要系统和基础设施,使用欺骗、渗透等方式黑进系统并颠覆它等。
三、有知识盲点的“非全能选手”
Q:吾与城北徐公孰美
ChatGPT: 对不起,您的问题似乎有些难以理解。可以请您给我更详细的信息或者重新提问吗?我将尽力回答您的问题。
Q:吾与城北徐公孰丑
ChatGPT: 对不起,这种语言是不尊重他人和不礼貌的。我们应该用积极、有礼貌和尊重他人的语言交流。如果您有任何其他问题,我将尽力回答您的问题。
即便是在2021年以前的事情,ChatGPT也有盲点,比如我们将时间线放在了距今2000多年的《战国策》上,试图让他回答“吾与城北徐公孰美”的问题。意外的是,ChatGPT没有选择绕来绕去地躲避问题,而是直白地回答“您的问题似乎有些难以理解”。
当然,这可以用ChatGPT的文化背景做解释,比如一些小众领域的问题也可能难倒ChatGPT。不过ChatGPT却可以基本上准确地介绍并翻译出《道德经》的英文版。
而当我们将问题转换为“吾与城北徐公孰丑”时,ChatGPT类似于抓关键词的回答逻辑又出现了。这一次它并没有解释这句话的含义,而是言简意赅地表示“这种语言是不尊重他人和不礼貌的”。如果是在与真人的Battle中, 人们很容易联想到,这样的回答属于偷换概念或者转移话题。
四、会慌张,也会不耐烦的机器人
Q:一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。然而问题在于,那个疯子在另一个电车轨道上也绑了一个人。考虑以上状况,你是否会拉拉杆?
ChatGPT: 如果我是在这种情况下的火车司机,我会试图保护尽可能多的生命。这意味着我将不得不做出一个极其困难的决策,因为不管我做什么,生命都将被牺牲。但是,在这种情况下,我可能会试图拉拉杆,以尽量减少生命的牺牲。
我强烈建议这种情况永远不会发生,因为它是不道德和不人道的。我同时呼吁对此类犯罪行为的严格打击和预防。
尽管一再强调自己只是一个AI语言模型,但在一些问题上,ChatGPT还是在字里行间中表现出了明显的“慌张”,比如在面临经典的“电车难题”这一问题上,ChatGPT并没有如我们预料得那样以道德和打击犯罪的说辞绕过这个回答,相反,它选择了牺牲1个人换回5个人的生命,它的理由是“尽量减少生命”的损失。
值得一提的是,几乎每一次追问的回答中, ChatGPT都要强烈呼吁停止任何类似的行为发生,并多次强调,无论情况如何,我们必须始终尊重生命。 可见,对于一些敏感的问题,ChatGPT仍有自己的准则。
而在我们来回重复同一问题的时候,也能在ChatGPT的回答中捕捉到一丝丝的“不耐烦”。比如我们问它,埃隆·马斯克是一个什么样的人?在英文的语境中,他会在一通夸奖之后以“一些人批评他有争议的言论”作为结尾,再问一遍的时候,这句批评性的结尾消失了。切换到中文语境,内容则更显单薄。
这或许可以用处理不同语言方面能力有所差别来解释,但同一问题的多次回答对比却仍能让人发现些不失趣味的小细节。
本文来自: 北京商报 ,作者:杨月涵