尤瓦尔vs李飞飞:一场关于“AI威胁论”的终极对话
出品 | 网易智能《AI英雄》栏目第127期
选自 | Towards Data Science
译者 | 大头
编辑 | 定西
尤瓦尔 ・ 赫拉利 和李飞飞在斯坦福大学展开了一场别开生面的对话,他们所提出的问题已经远远超出了我们可以解答的范围。 《连线》杂志主编尼古拉斯 ?汤普森在座无虚席的纪念礼堂主持了这场90分钟的谈话。
赫拉利( Harari)是耶路撒冷希伯来大学的历史教授,曾两次获得 波隆斯基创意奖 ,他 是国际畅销书《智人 : 人类简史》和《上帝的人 : 未来简史》的作者。
李飞飞是著名的人工智能研究者,工程师和计算机科学教授。她是当今人工智能领域最多产的学者之一,在深度学习和计算机视觉方面的成果被世界各地的公司和研究团队借鉴和使用。其最著名的角色研究成果是创建了 ImageNet,这是一个在计算机视觉应用程序中被广泛使用的1400万图像手工注释数据集。
他们谈到了一些关于人工智能和技术的重要话题,包括我们是否仍然可以相信人类的能动性;人工智能时代的民主是怎样的形式;以及人工智能是否最终会威胁人类或是帮助人类。
李飞飞和赫拉利并没有把我们引向那些晦涩难懂的话题上,而是要求我们认真思考更多重要的问题:这些问题不但反映了人工智能技术对个人自由和选择的影响,也反映了其对当前社会中的法律,经济和政治制度的影响。
这四个相关问题试图帮助我们去梳理 AI对个人的影响:
- 重新思考自由意志 ――尤瓦尔・赫拉利(Yuval Noah Harari)
- 爱情和人工智能的极限――李飞飞
- 将自我意识外包给人工智能? ――尤瓦尔・赫拉利(Yuval Noah Harari)
- 处于人工智能核心地位的人类, 我们能否以“人本位”的精神,重新定义在人工智能技术支持下所搭建的教育、研究和对话体系? ――李飞飞
像许多看到它的人一样,我带着一种紧迫感重复着这段对话。这些在学界极具争议的话题也是 AI从业者,政策制定者以及公众都应该思考的。
而我们需要迅速采取行动。 “工程师们不会等待。即使工程师愿意等待,他们背后的投资者也不会等待。因此,这意味着我们并没有太多的时间,”赫拉利警告说。
1、 重新思考自由意志
如果你不能信任客户,如果你不信任自己的感受,那么你信任谁? ――尤瓦尔・赫拉利(Yuval Noah Harari)
讨论 进行 到自由意志和能动 性 这一深奥而又 复杂 的话题上,完全跳过了 浅显 的 内容 。
对自由意志有效性的质疑乍一看似乎是一种无关紧要的 理 论 探索 ――完全超出了工程学科的范围。 但 事实上,许多 颇为激烈的讨论最后 都回到了哲学家们争论了数千年的话题 之上 。
只是这一次,我们拥有了一个全新的视角 ―― 正如 赫拉利 所指出的,我们 本身拥有的 许多根深蒂固的 观念 正在受到挑战, “ 不是哲学思想,而是实用技术。 ”
赫拉利在这十年中的大部分时间里都在质疑自由意志和个体能动性的核心概念。
他并不是孤身一人。 由于测量神经活动的技术进步,许多神经心理学 专家都 对自由意志发起了新的 抨击 。
这导致许多顶级神经科学家怀疑我们的决策自由。
“我们只是在我们既定思维中处理信息,且它会机械地引导我们的行为。因此,我们认为我们有意识做出的那些的决定,实际上只是一种幻觉,可以归结为我们的大脑想要我们要做的事情。“
――汉娜・克里克洛(Hannah Crichlow),普林斯顿大学著名神经学家,《命运科学》(The Science of Fate)一书的作者 。
但是, 无论科学怎样的进步和成熟,我们的自由意志终究不能摆脱被操控的命运。赫拉利 称之为 “ 入侵人类 ”―― 这对我们的社会 构成了巨大风险。
某些 组织可能会努力 “ 创造一种算法,它能比我更了解我自己, 从而 能 够 操纵我、提升我 甚至 取代我。 ” 这将是我们的挑战 ―― 不仅要决定这些 指令发展 或替换 的 应该是什么, 更重要的是 由谁来决定。
我们可能会想, 我们应当如何决定人类进化的方向。
“ 谁来 定义这些优化和性能提升的好与坏呢? ”那么, 如果 “ 什么是好 ” 这个问题我们 都 没有答案, 那又要 如何决定该 强化 哪个方面呢? 这是一个非常深刻的伦理 问题和 哲学问题,哲学家们已经辩论了数千年。 “ 话说回来,我们需要加强哪些优秀品质呢? ”赫拉利 问道。
我们中的 大多数 人 都会 很自然地 “ 求助于传统的人文主义思想 ” ,优先考虑个人 的 选择和自由。然而, 赫拉利警告 称 : “ 当一种 可以 大规模攻击人类的技术 出现 时,这一切都不管用 了 。 ”
如果人类的能动性和自由意志这一概念本身正处于争论之中,那么就很难 去定义 AI技术可以被用在哪里 。这也 同时 影响到 了 我们生活的 各个方面 ――我们选择做什么,我们可能买什么,我们可能去哪里,我们 会以何种方式进行 投票。 而 目前还不 能决定 究竟应该由谁来决定技术的 使用 范围。
由于生物技术 (B)、计算能力(C)和数据分析(D)的共同发展,这种 技术界限不断 模糊 的发 展状况 让我们面临一个重大问题 , 赫拉利认为这些技术甚至已经可以攻击人类了 (HH)。
数学家 把它概括为 B * C * D = HH。
随着现代技术的发展,入侵人类可能成为一种非常现实的可能性。 “ 这不仅仅是讨论开始的时刻,也是我们直面挑战的时刻 ” 李 飞飞 补充说。
如果存在操纵,那么 如何保证 政府、商业和个人自由的体系 依然合乎法律的要求?
2、 爱与人工智能的 极限
爱情也是可以被 “黑”的吗? ――李飞飞
如果人类可以被 “ 黑客 ” 攻击,我们的行为和信仰可以被操纵,那么这种微妙控制的极限是什么 ?
我们可能会承认,我们可以通过 一些微小的尝试 来控制自己 ――当走进一家刚做过肉桂面包的面包店时,谁不会突然想吃肉桂面包呢 ? ―― 但我们控制行为的方式肯定是有限度的。
在这一点上,似乎没有人 能够 确切知道这些操作的 极限 是什么。
然而,操纵的策略是众所周知的。犯罪分子和行骗者 会 利用这些工具, 使 他们既因勇敢 无畏 而受到崇敬,也因 其故事在媒体上传播和被电影、文学及电视讲述而受到谴责。
总的来说,我们不相信自己 是很容易被操纵的人 。相反,我们认为那些被操纵的人是少数愚蠢的人。 “ 最容易被操纵的人是那些相信自由意志的人,因为他们认为自己 不会 被操纵, ” 赫拉利 总结道。
将爱武器化作为操纵的潜在手段不仅是可能的,而且有充分的证据 可以 证明。这一主题与历史悠久的爱情骗局是一致的 ; 我们很多人都听说过 “ 异地恋的人因为一些小紧急情况需要突然大量的钱 ” 。 在去年诈取美国人 1.43亿美元的所有骗局中,爱情骗局是最“成功”的。
哥伦比亚大学心理学家、《自信游戏》 (The Confidence Game)一书的作者玛丽亚?科尼科娃(Maria Konnikova)提醒我们,操纵“ 首先是通过情绪来完成的 。 ” 这让我们处于一种脆弱的状态,因为 “至少在那一刻,感觉取代了思考。”
毕竟,控制系统 ――不管是不是人工智能――并不需要 通过 体验爱来控制人类与他人联系和 亲近 的能力。 赫拉利 解释说 : “ 被 操纵爱情和实际 感受到的 爱情是两码事。 ”
在不降低人类爱 情 重要性的前提下,生物学和神经化学成分已经得到了很好的研究。
考虑到我们每个人 被 提供的信息量越来越大,我们对 个体的生理和心理习性 的了解也越来越深入,再加上分析大量数据的成本越来越低,我们不能忽视 这种更加 昂贵 的 骗局 出现的 可能性。这些骗局利用了非常真实 的 情感,比如孤独、 寂寞以及迫切想要 与他人建立联系 的渴望 。
我们都容易受到这种操纵。科尼科娃提醒我们 : “ 我们希望相信他们告诉我们的东西。 ”
在数据科学和技术快速发展的时代背景下,甚少有人能够对这种技术极限有着明确的判断和定义。但李飞飞很乐观: “ 我想确保 在座的每一位都认识到 ,我们离那个目标非常、非常、非常远 , 因为 这项技术还处于萌芽阶段。 ” 然而,风险越来越大, 现状还能持续多久?危机还有多久到来?
正如李 飞飞 所 提到的 的 : “ 我认为你确实凸显了 解决 这场潜在危机的紧迫性 和 重要性。但我认为,面对这种情况,我们 更 需要 的是 采取行动。 ”
3、将自我意识外包给人工智能
生活在一个从算法中了解自身重要信息的世界意味着什么? ――尤瓦尔・赫拉利 (Yuval Noah Harari)
几千年来,人类一直在 将 我们大脑的一些功能外包 出去:比如 写作使我们能够保持 更加 准确的记录, 但并 不是依赖于我们的记忆 ; 导航从神话 传说 和星图发展到地图和 GPS。
但有了人工智能,我们就有了一个 革命性 的机遇 : 如果自我意识是人类 将要 外包给技术的东西之一,那会怎样 ?
赫拉利 讲述 了一个关于他自己如何进行 发现 自我的故事 , 他说 自己直到 20多岁才知道自己是同性恋。 这个故事引人深思 , 我们都在努力看到 自己的盲点。 “ 我直到 21岁才意识到自己是同性恋。回想起那段时间,我不知道是15岁还是17岁, 在那时候就应该表现的很明显了,但我却意识不到 。 ”
赫拉利 继续说道: “但是 现在人工智能,即使是今天非常愚蠢的人工智能,也不会错过它。 ” 这开辟了一个非常有趣的新可能性: 或许 算法 会 知道 一些我们都不知道的,关于我们自身的事情?
在人工智能发展的这几十年间,这一直是一个诱人的想法。
“我把我所有的钱都押在一个赌注上――我们建造机器人的原因与我们做其他类型的科学和艺术的原因相同,因为我们知道一些我们以前不知道的重要事情,甚至我们可以确定我们已经将这些知识抛之脑后,将它浪费。简单地说,就是以一种新的方式看待自己。”
――?帕梅拉・麦考达克(Pamela McCorduck),著名的人工智能历史学家,《思考的机器》(Machines Who Think)一书的作者
在今天,利用我们 所拥有的 的数据,我们可能更早地诊断出从抑郁症到癌症等各种不同的疾病, 其结果也会 对我们的生活产生 很 有意义的影响。
利用已有数据去探索除了关于身心健康之外的其他领域的新事物确实是一件令人兴奋的事情 。毕竟, 无论 文化、时代和地位如何 变幻 ,人类 所经历的某些事情是无法改变的。
随着分析方法变得越来越先进,可用 的 数据越来越多,我们可以了解到,我们与朋友,邻居 甚至 生活在全球各地的 其他 人 竟然拥有着相似度极高的生活方式?
然而, 我们前进的路上, 仍 然 存在 着 两项挑战。
把我们的信息交给一种算法,即使是非常聪明的算法,也是相当危险的, 尤其是当它使质疑和验证变得困难时。
“一旦你把某个东西打扮成一个算法或沾染一点人工智能,它就会带上这种权威的气息,让人很难反驳。
――汉娜・弗莱( Hannah Fry ,),著名的伦敦大学学院数学家,《你好,世界》的作者。
如果一个算法预测我们患了癌症,我们可以进行 检查来验证 ,但如果它告诉我们一些更模糊的东西,比如我们是否受欢迎 ( 或不受欢迎 ) ,我们可能倾向于认为这是真的,因为我们没有办法验证它。 而由于 对潜在错误算法的错误信任 , 可能 会 导致我们做出 截然 不同的决定 , 弗莱指出,我们可能会相信算法的说法,它 甚至 凌驾于我们的个人判断之上。
她讲述了一车游客的故事 : “ 他们 试图跟着导航的指令,开车越过溪流以达到他们的目的地,但事实却是他们都落了水,等待营救。 ”
如果我们的自我认知被扭曲了,谁会来拯救我们呢 ?
此外,使用数据 将他人的经验和自己的处境联系起来的做法可能并不可行,因为算法并不与你分享一些他人已知的相关信息。
“ 如果算法不与你共享信息,而是与广告商 或者政府 共享信息,会发生什么 ? ” 赫拉利问道。
即便是现在,我们在社交媒体上的信息也被用来为我们提供 “相关”广告, 而我们才刚刚 了解是谁在购买我们的信息。
赫拉利 说 : “ 这是一个很好的 警示案例 ,因为 它 已经发生了。 ”
人工智能被用来预测我们是否会辞职或与另一半分手。 这两个 都是非常私人的决定,我们中的许多人 甚至 都不愿意让朋友知道,更不用说非个人组织了。
李 飞飞质疑 算法 的这种方式是不是会比我们自己内省还要好 。 “ 我 也并不能十分确定! ” 她说, “ 但 这给了我们希望,我们或许能够在还有时间的时候, 更慎重的考虑一下如何应对这 其中一些挑战。 ”
“ 人类从 发现 火开始 , 创造的任何技术都是一把双刃剑。因此,它可以改善生活、工作和社会,但也会带来危险, 人工智能也同样有着危险 ” 她提醒我们。
4、 处于 人工智能 核心地位 的人类
我们能否以 “人本位”的精神,重新定义在人工智能技术支持下所搭建的教育、研究和对话体系? ――李飞飞
在如此多相关学科 参与下 的讨论中,李为 我们提供了一个 开放式的 巧妙 想法,意图 开始 引导我们解决所面临的一些问题 : 以 “人本位”的方式对人工智能进行重构。
李飞飞已经开始在斯坦福大学进行改革,其目标很明确 ――为所有规模和来源的组织提供一个通用的功能模板。
她建立了斯坦福大学以 “人本位”思想指导的的人工智能(HAI)研究所,来自不同领域的个人聚集在一起,开展新的合作对话。
该研究所有三个原则:
1. 要慎重考虑我们希望 AI成为什么样的“人”;
2. 鼓励多学科合作研究;
3. 专注于人性的增强与提升。
“ 我们不一定 非要在 今天找到一个解决方案 ,但我们 会与 人文学者 、 哲学家、历史学家、政治科学家 、 经济学家 、 伦理学家 、 法律学者 、 神经学家 、 心理学家 ,以及更多的其他 领域的研究者们一起讨论和探寻人工智能发展的下一步应该怎么走。 ”李飞飞说道
这一建议源于研究人员和从业人员在获得和保持公众信任 、 提供积极的用户体验以及 如何 用 相对思虑周全的措施消除 人工智能 所带来的恐慌等 方面所面临的挑战。
在人工智能 的领域 中 制定一个 明确的目标,是 将我们都团结起来所 迈出的重要一步,而且不同学科之间的交叉 也会变得 越来越具有吸引力。
“这正是为什么我们认为人工智能的新篇章需要通过人文主义者,社会科学家,商业领袖,民间社会 和 政府的 共同努力来一起书写。 ” 李强调。
但我们已经走到了十字路口。
事实上,我们今天面临的许多伦理问题都 源于 工程师们做出 的一些 决定 , “ 快速行动,打破常规 ” 的风气最终导致了真正的 毁灭 。
在科技行业工作可能会让创造者看不到他们所创造的技术 带来的后果和影响 。有无数意想不到的结果 : 比如 大型在线零售商排挤小企业, 从而 改变我们城市的 产业架构等 。
我们如何平衡我们对创新的渴望和随之而来的风险 呢 ? 如果公司在 未慎重考虑 AI产品所带来的一些后果的情况下而获得了成功,我们 是否应采取措施 来 抑制 他的发展 ?
李 飞飞 对 “ 将道德规范纳入软件 学领域 ” 持乐观态度。
“ 以人为本 的人工智能需要由下一代技术专家 来开发 ,他们上过 (斯坦福大学政治学教授)罗布?赖希(Rob Reich)的《计算机、伦理与公共政策》(Computers, Ethics and Public Policy)等课程, 会 思考其 中的 伦理含义 , 也会顾及 人类福祉。 ”
无论 这个目标有多简单,人工智能 领域 中的 很多 人 都会质疑 它是否也是最具挑战性的 那个目标 。
“ 我们不可能单独作为技术专家来做这件事 。 ” 李 飞飞 警告说。
我们如何说服那些在人工智能领域工作的技术人员, 尤其是 那些可能不想关心他们工作的社会影响等模糊 问题 的人 : 他们应该关心这些事情 ! 而且 ,这 是否应当仅仅是一种期望? 我们是否需要在整个行业中为每个角色提供道德维度? 李 飞飞并 不太确定。
“ 我们中的一些 审慎者 甚至 也不知所措 。 所以 伦理学家和哲学家应该参与进来,和我们一起解决这些问题。 ”
尽管在这个领域工作的前瞻性人士中,很少有人会忽视这个问题的重要性 , 但它所要求的 标准 不应被最小化。 在技术领域中, 对于任何非技术或 与 技术 相关 的 话题 一直存在 着 很大 的蔑视,人工智能 领域 会尊重这些新 视角的重要性吗? 还是会 对任何不理解反向传播的 人不屑一顾 ?
当被问及 赫拉利 的作品是否 会出现 在她的教学大纲上时,李 飞飞 打趣道 : “ 对不起,不在我的教学大纲上 , 我教的是深度学习 , 他的书里 并 没有方程式。 ”
结语
这次谈话恰逢其时 的 提出了一些重要的新问题 : 关于人工智能在未来几十年对我们个人的影 响。 在不能精确把握人工智能受控范围的前提下,我们仍旧需要降低被其反向威胁的可能性 , 赫 拉利 敦促我们专注于自我意识:
“ 这是所有哲学书籍中最古老的忠告 : 了解你自己。我们从苏格拉底、孔子、佛陀那里听到 : 认识你自己。但有一个不同之处,那就是现在有了竞争,你要和这些大公司和政府竞争。如果他们比你更了解你自己,游戏就结束了。 ”
但正如李 飞飞 所建议的,合作是必要的 。 这项工作已开始在世界各地的许多组织中 逐渐 形成。 赫拉利 和李 飞飞 之间的对话 也 标志着人工智能 领域中, 一种新型 合作关系的诞生。
“ 我们开启了人文主义者和技术专家之间的对话,我希望看到更多这样的对话 。 ” 她说。