专家警告:一年之内不禁止“杀手机器人”就来不及了
腾讯科技讯 随着人工智能的发展,可以自主选择目标进行攻击的机器人正在迅速成为现实。在新技术的推动下,人类可能会放弃决定如何使用致命武力的控制权。完全自主的武器也被称为“杀手机器人”,它们正在迅速从科幻作品走向现实世界。
研究人员担心在未来,事关生死的决定将由机器做出,超出人类的控制之外。造成过度伤害,或错误把平民当成攻击目标的风险将会因此增加,而且还没有人可以被问责。
机器人缺乏真实的情感,特别是同情心,大量的决定将会在这种情况下做出。人类可以根据以往的经验和道德方面的考虑,逐个案例进行判断,做出相应的决定。但是想把这种判断方式复制到完全自主的武器上几乎是不可能的,预编程的机器无法应对所有场景。
把技术置于外交之上,将会带来可怕的、空前的人道主义灾难。
自主武器可以在陆地、空中或海上开展行动,武装冲突和执法行动的方式可能会产生翻天覆地的变化。支持的一方说,开发“杀手机器人”是必要的,因为现代军事行动非常迅速,让机器人作战可以防止士兵和警察遭受伤害。但它们对人类构成的威胁,可能会比它们在军事或执法方面带来的好处更多。
禁止研发“杀手机器人”的行动
一些人指出,如果关于攻击目标的决定不再由人类来做,世界将会变得非常危险。鉴于完全自主武器在道德、法律和责任上的风险,它们的研发、生产和使用现在就需要加以阻止,不能等待。而化解这种威胁的最好办法,就是对无人操控的武器实施国际禁令。
一些国家已经在使用Reaper这样的无人机在战区开展任务。如果在激烈的战斗中,出现了机器人非法杀人的情况,那应该由谁来承担责任呢?人权观察组织今年早些时候发布了一份报告,得出了一个非常令人不安的答案:没有人。
该报告名为《杀手机器人问责机制的缺失》。该组织说,我们必须改变这种缺乏问责制的状况,禁止研发和使用“杀手机器人”。
“不问责,意味着对今后的犯罪行为没有威慑力,对受害者没有进行补偿,对肇事者没有进行社会谴责,”该报告的主要作者、人权观察组织高级兵种部研究员邦尼·多彻蒂写道。
机器人缺乏真实的情感,包括同情心。此外,对于它们杀死的人来说, 生命 具有怎样的价值,没有生命的机器是无法真正了解的。让机器人来决定什么时候使用武力,是在剥夺人的尊严。国际法主张保护平民和士兵,只有当机器处于人类的控制之下时,国际法才能得到遵行。
联合国在日内瓦举行了为期一周的会议,讨论杀手机器人的问题。至少有20个国家在会议上表示,攻击目标的选择应该由人类来负责。哈佛法学院在这期间发布了一份相关报告,获得了很多人的支持,已经有两个组织在争取禁止完全自主的武器。
哈佛法学院的报告呼吁人类在科技高速发展的时代依然要保持对所有武器系统的控制权,包括选择攻击目标、拯救生命、确保国际法得到遵守的控制权。
“机器早就开始充当战争工具了,但是之前,它们的使用方式是由人类控制的,”邦尼·多彻蒂。“现在如果人类会放弃这种控制权,把事关生死的决定交给机器,风险就太大了。”
军备竞赛的威胁
有些人支持让机器人去打仗,以免人类在战场上送命。但去年,1000多名技术和机器人技术的专家——包括科学家霍金,特斯拉首席执行官伊隆·马斯克和 苹果 联合创始人史蒂夫·沃兹尼亚克——警告说,这种武器可以在数十年,乃至数年内研制成功。
在一封公开信中,他们表示,如果任何一个军事强国推动自主武器的发展,“那么全球军备竞赛几乎是不可避免的,这种技术轨迹的终点显而易见:自主武器将成为明天的卡拉什尼科夫冲锋枪。”
总部位于伦敦的“禁止杀手机器人”组织表示:有些国家正在赋予作战武器更大的自主权,这些国家包括美国、中国、以色列、韩国、俄罗斯和英国。
今年3月,五角大楼的一名高层官员透露了几个不久前还属于科幻作品的项目,其中包括可以躲避导弹的卫星,自主飞行的F-16战斗机,以及机器人海军舰队。
尽管五角大楼不打算开发一种无需人类指挥就能开展杀戮行动的武器,但国防部副部长罗伯特·奥克暗示,如果用敌人研发出这样的武器,情况可能就会改变。
“如果我们的竞争对手更加愿意把生死大权下放给机器,随着竞争的开展,我们就不得不做出最利于我们竞争地位的决定,”他说。
奥克在五角大楼的工作之一是确保美军保持技术优势,在他透露的一个项目中,空军把一架F-16战机改装为一个半自主的无人战斗机,与一架载人的F-35喷气式战斗机一同飞行。
五角大楼的研究人员还正在开发一种小型炸弹,它搭载了摄像头和传感器,可以提高瞄准能力。其他项目还包括机器人舰队,以及炮弹时速高达7250公里的电磁轨道炮等。(云开)
精彩视频推荐
人掉进黑洞还能活着出来吗
正在加载... |
推广:热点之下另有内幕,新闻之外别有洞天,了解TMT江湖隐秘故事,关注微信公众号“腾讯深网”:qqshenwang