“杀人机器人”存废引发争议

   日期:2014-05-20     评论:0    

日前,《特定常规武器公约》缔约国专家会议在瑞士日内瓦开幕,参加者包括联合国裁军研究所、国际红十字委员会、非政府组织以及相关领域的专家和学者。中国外交部、国防部也派代表出席了会议。会议围绕自主武器系统所引发的法律、伦理和社会问题展开探讨。

想必大家对电影中描绘的高度智能的机器人并不陌生,例如《终结者》、《变形金刚》、《机械公敌》等电影就展示了未来机器人战争的场景。在电影里,它们似乎具备了人类的某种判断能力,被用来执行特殊任务或者某种可怕的杀戮或袭击,甚至参与战争。其实,这就是广义上的“自主武器系统”,也就是俗称的“杀人机器人”。

目前,许多国家都在研发自主武器系统。毫无疑问,使用此类武器可以增强军事实力,同时降低己方士兵的风险。因此,各国对自主武器开发研究和投入有增无减。如今,很多武器系统已经具备一定的自主功能。武器技术的不断进步可能意味着,未来战场上的致命决定可能完全由机器作出而无需人类干预。

尽管有许多专业文献讨论了自主武器,但对于自主武器尚无统一的定义。“自主武器”可以看作是根据自身所部署的环境的变化,随时识别特殊情况并作出相应调整或运转的武器。真正的自主武器能够在无人干预或操控的情况下,搜索、识别并攻击包括人类在内的目标(敌军战斗员)。这一定义意味着,自主武器是具有人工智能的移动系统,能够在无人控制的情况下在动态环境中运行。

应该强调的是,此类“完全”自主的武器目前仍处于研究阶段,尚未得到完全开发,也尚未部署在战场上。然而,随着武器系统自主性日益增强,它的发展会变得愈发难以预测。

目前,支持和反对自主武器的意见均不少见。支持者认为,这类系统采用先进的传感器和人工智能,意味着它们将比士兵更能准确识别和攻击军事目标,从而避免平民意外伤亡。反对的声音则呼吁暂停或禁止自主武器的研发、生产和使用。去年4月,就曾发起过一项“阻止杀人机器人”的国际运动。去年5月,联合国人权理事会有关自主杀人机器人的报告称,此类武器系统增加了各方对“在战争与和平年代保护生命的普遍忧虑”。公众亦担心,没有人类控制的自主武器会任意行动,作出违反开发者意图的行为,甚至会造成反噬。

因此,两个关键的问题值得深究。第一,如何保证在法律允许范围内使用自主武器系统。国际人道法规定,任何新武器、作战手段或方法在使用过程中必须能够符合国际人道法有关作战行为的规则,特别是攻击中的区分、比例和预防原则,从而达到保护平民的目的。在激战中,自主武器是否能够区分平民和战斗员?如果攻击所造成的平民和民用物体附带伤亡或损害与预期的实际直接军事利益相比可能过大,自主武器能否取消攻击?从技术角度来说,有朝一日或许可以设计出一种高度智能的自主武器系统,能够执行上述规则。但是,目前对此类规则实施的评估似乎更倚重人类所独有的判断力。同时,这也引出第二个问题,即谁应该对自主武器系统实施的违反国际人道法的行为负责。确定个人刑事责任将更具挑战性。将责任归咎于一台机器或电脑似乎不太合理,那么谁将对自主武器系统所作的决定负责?程序员?制造商?还是部署该武器系统的指挥官?许多问题仍然没有答案。

至此,我们的讨论将超出法律和技术层面,开始对人类在武装冲突中作出生死抉择的角色本身提出根本性的质疑。最终问题不在于我们应该如何开发或操纵自主武器,而在于人类的良知是否会允许机器在无人控制的情况下作出生死决定并使用致命武力。

 
  
  
  
  
 
更多>同类资讯
0相关评论
 
全年征稿 / 资讯合作
 
 
 
推荐资讯
可能喜欢