潜在危险巨大 人工智能军事化应受国际公约约束

我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

李长亮

美国企业家马斯克日前联合26国的116名科学家和企业家,向联合国发表公开信,呼吁禁止发展和使用人工智能武器,并对其展开严格监督。信中提到,发展人工智能武器,会带来人类军事史上第三次战争革命,导致武装冲突进入前所未有的规模,且在演变速度上超越人类的理解和控制范围。

所谓人工智能武器,是指致命自主武器系统,很多科幻电影中出现的战争机器人就属于此类。它与普通武器根本的区别是,不需要人类的直接监督和决策,能够自动锁定目标并使用潜在武力予以致命打击。人工智能武器有利的一面显而易见:将其投入到战场,会降低成本以及保护军事人员的生命安全。

但人工智能武器不利的一面也很可怕:一个简单的程序,就会将其改装成屠杀平民的恐怖机器,其危害性远远超过了常规武器。军火是暴利行业,基于人工智能技术,自主化武器会给杀伤属性带来质的变化,必定会诱使军火行业铤而走险。

目前世界上还没有严格意义上的人工智能武器,人类的监督和决策在武器使用过程中仍必不可少。比如在战场上发挥了极高军事应用价值的远程武装无人机,虽然高度自动化,集成控制、定位、图像处理等多种尖端技术,也需要配备专业的军事技术人员进行操作。但随着人工智能技术的爆发式发展,技术问题不会再是发展人工智能武器的壁垒,美国的雷神等公司可能已经掌握或正在开发相关技术。

战争是政治和外交的极端暴力手段,是违背人类和平发展愿望的,但在目前的人类文明发展阶段,产生战争的根源还存在,因此军事的发展是一个主权国家必不可少的投入。其中武器的发展,是矛和盾不断交替进化的过程,在制造利矛的同时,要考虑其可能为敌所用的后果,要有盾牌予以应对,比如针对导弹的反导技术等等。

如果在技术上无法对某些危害极大的武器进行限制,就需要战争法规公约进行制约,保护交战人员和平民免遭不必要的非法伤害,减少战争的残酷性。到今天为止,国际社会已经缔结多个针对武器使用的条约:1925年签订的《日内瓦议定书》禁止在战争中使用化学武器和生物武器;1968年由59个国家签订的《不扩散核武器条约》限制核能军事化应用;1972年签订的《关于禁止发展、生产和储存细菌(生物)及毒素武器和销毁此种武器的公约》制约细菌毒素武器;1980年签订的《禁止或限制使用某些可被认为具有过分伤害力或滥杀滥伤作用的常规武器公约》限制潜在大杀伤力武器;同样,针对人工智能武器,美国国防部在2012年发布指令,允许半自主武器系统使用武力,但要限制其自主程度。这意味着美国政府不反对武器智能化,但要确保所有武器在人类绝对控制下。

任何武器都具有潜在的危险性,哪怕一把匕首,都会伤人性命。关键是看它在谁的手里,是用来维护和平,还是用来屠杀生灵。比如核武器,其对世界的威胁是毁灭性的,仅仅冷战期间,美国和苏联拥有的核弹就足以毁灭地球若干次。但在当初国力基础薄弱的中国,正是因为原子弹的试验成功,大大增强了国防战力,提高了在世界格局中的话语权,为世界和平作出了巨大贡献。

世界并不太平,和平需要守护。我国应在保证安全、遵守国际公约的前提下,发展人工智能技术在军事领域的应用,增强我国战力,这也符合我军的强军目标。正义之师的战斗力越强,对世界和平做出的贡献就越大。▲(作者是中科院自动化所学者)

责编:李文瑶

随意打赏

人工智能电影
提交建议
微信扫一扫,分享给好友吧。