人工智能时代,机器需要有道德判断吗?
在人工智能时代,我们如何和可能比我们更聪明的人工智能机器和机器人一同生活呢?一个人工智能机器可以是一台电脑或者一台智能设备;它也可以是一个机器人,无论有没有附属肢体,它都可以模仿人类生活。
还有太多无法回答的问题。当有一天我们创造的机器决定为自己思考时,我们还能和它们舒适且方便地共存吗?你相信技术奇点吗?你觉得它在我们身边吗?这里有一些我们在人工智能的未来不得不去解决的道德困境。
机器能学会同情吗?
很多人认为你无法把人类的同情编入程序之中,而同情是我们与其他人分享的一种与生俱来的能力。
在遥远的未来,一些机器可能会为我们做决定。想象一下,当一个没有同情心的机器人需要去决定对一个已故的人做不做心脏复苏这件事,如果做,那要做多久。
如果一个机器人需要在一个孩子和一个父母之间选一个去救,它会怎么选呢?有些人认为你永远也不能够写出等价于人类的性格、判断以及同情的代码。
机器可以练习道德判断吗?
让我们来看看当人工智能成为未来日常职责的主角时可能会出现的一些道德判断的决策。
我们需要哪些步骤来让机器人进入到应急救援服务领域中呢?例如,一个机器人能决定是牺牲自己去救100个人还是保全自己去救一个人吗(当有100人遇到危险时)?
当出现有人质疑发生这种情况时会怎么样呢?机器能在这种剑拔弩张的情况下合理地表现吗?
和同情心一样,我们不太可能将道德判断编入人工智能的程序之中。你会信任一个人工智能机器人当你孩子的保姆吗?它清楚玩具剪刀和真的剪刀之间的区别吗?
我们能让机器充分了解风险吗?
当我们开着自己的车或走在车辆横行的停车场中时,我们几乎完全了解做这些活动时的危险。在通往自己目的地的路上,我们对周围的人同样承担着一些责任。
机器自身是为完成一个目的而服务的,并且它们会不停地去为完成那个目的而服务直到它们坏掉或关掉。当我们放弃对人工智能的控制时就造成了一个问题。它们在面对突如其来的特殊状况时会保持相同级别的自我保护能力吗?当无人驾驶汽车遇到可能威胁到它以及我们的危险时能够改变它们原先的设置吗?
管理机器的规则是什么?
对这些电脑制定规则可能会比教会人工智能如何采取行动更具挑战性。这几个世纪以来,人类在成千上万的伦理或道德问题上难以统一意见。这也就是为什么有的时候我们有相同信仰的人会单独形成一个小集体的原因。这帮助我们更坚定自己的信仰并证明我们是正确的。
显而易见,如果机器可以代表我们行动或投票,那我们是不是没必要让它们和我们生活得一样呢?或者彼此分开去创建志同道合的团体?这会让人工智能成为种族主义者吗?机器需要知道其他人工智能设备和它思维方式不一样从而成为一个批判性思考者吗?人工智能之间能够正确地沟通吗?
机器需要权利吗?
如果机器真的变得像我们一样逼真,即使只是它们思考的能力和我们一样,它们在被创造时可能没有被赋予权利,但是它们迟早会要求这些权利,甚至可能会寻求人工智能的爱情。
当归结到这件事情时,我们难道不会因为道德和同情心提出人权至上的要求吗?那为什么我们创造出来的东西不会提出那样的要求呢?
翻译来自:虫洞翻翻 译者ID:盖里君