为了控制人工智能 我们需要更多地了解人类
对于 人工智能 领域的一些人,比如马克·扎克伯格来说,人工智能正变得越来越好,如果出现问题,技术将会解决这些问题。但对于像埃隆·马斯克这样的人来说,现在是时候开始思考如何监管强大的机器学习系统了。
在这一点上,我同意马斯克的观点。但这不是因为我认为好莱坞喜欢吓唬我们的末日场景即将来临,而是因为扎克伯格坚信我们可以解决未来的任何问题,而这取决于马斯克坚持认为我们需要“尽可能多学习”。
我们需要迫切了解的不仅仅只有人工智能工作的方式,还有人类是如何工作的。
人类是地球上思想缜密、具备合作能力的物种。在认知和交流中,我们战胜了其他所有的动物——这些工具使我们能够进行劳动分工和适应群居生活,而我们必须依靠他人来完成自己的使命。这就是我们市场经济和政府体系的意义所在。
但是人工智能已经开始使用的复杂认知和语言并不是人类在合作中如此成功的唯一特征。
人类也是唯一一个具备“群体规范”的生物物种,“群体规范”是指一套复杂的规则和规范体系,规定了人们可接受和不可接受的行为,并通过集体努力来惩罚那些违反规则的人。
当谈到人工智能自我意志的风险时,我们真正担心的是他们是否会继续发展下去,并帮助执行我们的规则。
到目前为止,人工智能社区和资助人工智能安全研究的投资者——比如马斯克和好几个基金会——主要求助于伦理学家和哲学家的建议,来帮助他们构建一个能带来良好效果的人工智能。像Nick Bostrom这样的思想家提出了关于人工智能和人工智能研究人员应该关心的重要问题。
但我们复杂的社会规范,与其说是道德选择,不如说是关于如何协调数十亿人在个人行为上所做出的数以百万计的选择。
我们真正无法理解的是,这种协调是如何完成的。文化是一套规则,但改变它的因素——有时是缓慢的,有时是快速的——我们都还没有完全理解。法律是另一套规则,我们可以很简单地改变其理论,但改变其现实生活中的实践就并非易事了。
因此,对于我们这一群体的新成员来说,人工智能是引起怀疑的原因:他们了解些什么,是什么激励着他们,他们对我们显示出多大的尊重,以及他们愿意为生活中的冲突找到建设性的解决方案吗?如果人工智能系统是用来读取和参与系统的,那么它将只能集成到我们复杂的规范系统中。
在未来,人工智能将会变得更加普及,人们将会定期与机器互动——有时甚至是在不知情的情况下。当未来一些汽车取代我们进行自动驾驶和相互交谈时,那我们想要驾驶或遵守交通法规时会发生什么呢?我们会不会相信机器人能够照顾好我们在学校里的孩子,或者在养老院照顾好我们年迈的父母呢?
社会心理学家和机器人专家正在思考这些问题,但我们需要对这类问题进行更多的研究,更多地关注系统的功能,而不仅仅是单个机器或某个过程的设计。这将需要那些考虑规范系统设计的人的专业知识。
我们已经看到了人工智能给他们的开发者带来了惊喜,即他们通过创建自己的语言来提高他们在合作任务上的表现。但Facebook并不接受人工智能的合作能力——而是开发出一种人类无法理解的语言——但这未必是一种长远的选择。
正如人工智能研究人员Stuart Russell所强调的那样,智能机器将会发现,如果它们死了,它们就无法完成人类的任务——因此,我们现在必须开始思考如何设计系统,确保它们继续重视人类的安排和监督。
要打造智能机器,我们需要遵循人类群体的规则,而这些规则多样化并相互冲突,有时候也并不成熟,所以我们需要更多地了解是什么让我们每个人每天都愿意这么做。
作者: Gillian Hadfield
编译:网易见外智能编译平台
审校:Simone