将AI用于武器研发?德国承诺不使用"机器人杀手"
【网易智能讯 2月20日消息】目前,自主武器已成为关于人工智能未来发展辩论的核心,一些国家已经开始逐渐远离使用中所涉及的伦理困境和政治争议。
在最近举行的联合国常规武器公约会议上,世界各国领导人考虑出台相关方案以禁止使用这些所谓的“机器人杀手”,严格意义上来这并不是准确的表述,这是由于,自主武器不限于Josh机器人类型。在目前召开的慕尼黑安全会议常务会议上,德国明确表示,他们对研发自主武器系统并不感兴趣。
“我们的立场很明确,我们无意购买自动化系统”德国网络与信息空间安全新任指挥官Lieutenant General Ludwig Leinhos这样说到。然而,他明确表示,德国军队并不是仅仅选择不参与争端,当其面对外国远程武器的潜在攻击时,同样随时准备着保卫国家以免受威胁。
继澳大利亚和加拿大之后,德国成为最近正式公开谴责开发或使用自主武器的国家。同样,2017年初,英国已经宣布禁止使用自主武器。
作为“阻止发展杀手机器人”倡议的协调员,Mary Wareham在MSC上告诉专家组已有22个国家支持此项禁令。同时,全世界的激进分子持续反对此种武器的研发,而形成对比的是,包括美国在内的一些国家则将持续对此种武器进行研发。
许多世界著名的人工智能专家都对此种武器的研发持反对意见,他们在此前的致联合国公开信中明确呼吁禁止自主武器的研发。资深人工智能研究员Stuart Russell也参与其中。此前,他告诉Futurism的记者,将武器人工智能化给社会带来的影响弊大于利。包括“哈佛人工智能计划”、国际特赦组织以及反杀手机器人运动在内的各类其他团体,都表达了同样的担忧。
当然,对于人工智能未来发展前景的讨论,自主武器只占据其中很小的一部分。对于人工智能的发展前景,大部分人还是赞同其为科技进步的一种形式,且不应该对其进行阻碍。然而,将人工智能应用于武器研发的事实,却对世界安全状况发起了最高级别的警报。
(选自:Futurism 编译:网易智能 审校:Sarah)