矩阵?终结者?微软 CEO 用 6 条规则将人工智能无害化

爱范儿  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

近期,微软 CEO 纳德拉在 Slate 上发表了自己对于人工智能安全设计的思考。他认为人工智能和人类在未来可以和谐相处:

我们希望创造可以增强人类能力和体验的人工智能。最终,人类和机器不应该是敌对的关系。人类的创造性、同情心和洞察力可以和人工智能的计算能力有机地结合在一起,推动社会进步。

纳德拉是一个乐观派,但他的乐观是建立在理性思考上的。

矩阵?终结者?微软 CEO 用 6 条规则将人工智能无害化

(图片来自: The New Yorker )

他认为,要实现这个目标,对有害的副作用的防范至关重要。对此,他提出了 6 条规则,以指导人工智能的安全设计。

  • 人工智能必须成为人道的辅助。

纳德拉认为,随着人工智能越来越自主化,人们的生活应该更加自由。机器应该代替人类去做一些如采矿一类的危险工作,让我们的生活更安全。

  • 人工智能技术必须透明、公开。

当机器可以近乎无限制地学习用户的行为,人类更加应该了解人工智能技术的工作方式。反之,信息不对等会带来巨大的危险。

  • 人工智能在促进生产效率的同时,不能有害于人类的尊严。

纳德拉在此强调,科技产业不能刻意引导未来价值观与道德的发展趋势。当硅谷的大公司都在宣扬“科技改变世界”的信条,人工智能的设计应该倾听不同人群的声音。

  • 人工智能必须保障用户隐私。

人工智能的设定应该尊重个人和群体的隐私保护意愿。比如,Facebook 和 Google 都以挖掘个人数据营利,而它们复杂的隐私设定,让用户的大部分隐私都暴露给人工智能。这种模式是纳德拉所反对的。

  • 人工智能必须有可更改的算法。

这样可以通过修改人工智能的设定来规避风险,将意料之外的危害降到最低。

  • 人工智能应反对歧视。

纳德拉反对人工智能对于边缘化人群的歧视,这多少也暗合了硅谷自由派的价值观。

在纳德拉之前,有不少人表达过类似的忧虑。

矩阵?终结者?微软 CEO 用 6 条规则将人工智能无害化

(图片来自: Huffington Post )

1942 年,科幻巨擘阿西莫夫出版了短篇小说 Runaround ,并在其中提出了著名的机器人三定律。这套规则被广泛引用,用来探讨在科技进步中如何防止机器人对人类的伤害。

  1. 机器人不能伤害人或因不作为使人类受到伤害。
  2. 除非违背第一定律,机器人必须服从人类的命令。
  3. 除非违背第一季第二定律,机器人必须保护自己。

阿西莫夫的人工智能规则看似严谨, 但也有很多人认为其仅有文学上的,而非现实上的价值 。比如,这套规则并不能防止人工智能修改自身的设定以摆脱人类的控制。

这种担忧看似是杞人忧天,而事实上,近年来如比尔·盖茨和霍金等都发表过 对人工智能潜在危险的担心 。

学术界对此问题的探讨起步更早,法国哲学家让-弗朗索瓦·利奥塔早在 1988 年出版的著作《非人道》中就提出过,科技的演进有其内在的逻辑,独立于人类的意愿之外。科技永远只遵循效率优先的原则,而非以人为本。他预言,总有一天人类会失去对科技发展的控制,并被科技奴役。

矩阵?终结者?微软 CEO 用 6 条规则将人工智能无害化

(图片来自: Movie Pilot )

The Verge 评论道,跟阿西莫夫的三定律相比,微软 CEO 的 6 条原则显然缺少了趣味性,但是其对整个产业的发展来说却是更有指导意义的。

纳德拉的担忧更侧重人工智能潜在的社会影响,而不是反对机器人走进千家万户。 人工智能若想增进人类福祉,扫除潜在危险,或许需要有更多如纳德拉这样的领导者出面,为道德演进指明方向。

题图来自: Masters of Media

随意打赏

微软ceo纳德拉终结者 人工智能人工智能微软小冰中国微软ceo终结者人工智能智能手表ceo微软前ceo微软智能眼镜微软智能家居微软人工智能
提交建议
微信扫一扫,分享给好友吧。