AI武器未来战:「杀手机器人」的禁令谬误?
2020-08-12

AI武器未来战:「杀手机器人」的禁令谬误? 致命自主武器系统(LAWS)亦有人将之称为「杀手机器人」(killer robot)。

11月底,联合国《特定常规武器公约》(CCW)有88个缔约成员国,群聚日内瓦,召开了政府专家小组(GGE)会议,讨论重点在于所谓的「致命自主武器系统」(LAWS)。专家们希望透过各方集思广益,探讨LAWS的未来与公约。

致命自主武器系统亦有人将之称为「杀手机器人」(killer robot),但不限于有双手双脚、可进行攻击防御的人形机器。事实上国际法或条约目前仍没有对于LAWS的确切定义,唯一比较接近各国共识的,应属2016年红十字会专家会议的结论。他们主张:


AI武器未来战:「杀手机器人」的禁令谬误? 「若一种武器系统可『自主』选择与攻击目标,便可称为LAWS。」图为2000年,于德国汉诺威举办的世界博览会上展示的机器人。

在CCW的会议里,大多数的国家都认为,LAWS必须维持某种形式的人为控制,甚至主张应该要缔结新的公约,以禁止未来继续发展和使用LAWS。这点也得到许多非政府组织、科学家与企业家的赞同,如Tesla的执行长马斯克与人工智慧公司Deepmind的创办人苏莱曼(Mustafa Suleyman)就曾与百名专家共同呼吁禁止LAWS。

有些国家採取妥协观望的立场,像是德国、法国。他们认为,现在对LAWS提出具有法律约束力的条约为时过早,目前国际法和相关宣言足够控制,不如把目标转向建立行为準则或信心建立措施,这也得到部份欧盟成员的支持。由于德国先前态度倾向反对LAWS,法国较为支持,因此外界多认为德国的转变是为迎合法国,以及不愿意受到外力对其发展AI的桎梏。

明确表态应继续LAWS谈判的国家则有美国、俄罗斯、澳大利亚等五国,他们表示希望能探索开发和使用LAWS的潜在优势,并强烈反对任何新公约或政治宣言。俄国更表示,希望能缩短明年的会期,由十天减为七天,因为各国歧见一直存在,没有必要浪费时间,此议也获得中国赞同。

最后会议仅形成微弱共识,强调LAWS应该遵循《国际人道法》,在重申未来武器必须透过人为控制的立场后,各国预定于明年继续聚集探讨——那幺,究竟LAWS是否有如部分人士担心的危险?赞成与反对者的立场又有甚幺不同呢?

AI武器未来战:「杀手机器人」的禁令谬误? LAWS是否如部分人士担心的危险?赞成与反对者的立场又有甚幺不同呢?图为美国的军警机器人正检查自杀炸弹客的嘴巴。

AI武器未来战:「杀手机器人」的禁令谬误? Tesla的执行长马斯克(左)与Deepmind(即AlphaGo的研发公司)的创办人苏莱曼(中)曾与百名专家共同呼吁禁止LAWS。已逝的物理学家霍金(右)也曾警告AI的危险性应谨慎应对。

▌有意义的人为控制 VS 适当的类人判断

时间回到2014年,CCW第一次针对LAWS召开会议。从那以来,各方就对LAWS争论不休,从定义到应用,始终无法达成一致。许多国家坚持「有意义的人为控制」是AI武器的标準。这是基于潜在的风险、道德与问责要求,因此人类的生死决定不能委託给机器。

不过,部份国家——如美国和以色列——则主张应以LAWS是否能达成「适当的(appropriate)人类判断」来讨论,而非传统的人为控制。也就是说,系统在上线运作前,必须通过相关的交战规则、法规命令等原则,确保系统能「自主」做出与人类一致的决定。

他们认为AI武器不似核生化武器,一旦释放就无可挽回,且最初设计武器时,理应已加入人为控制的参数,让AI具有判断能力,因此不需要多余的控制程序。这也是所谓的美国标準,至于是否能完全按照美军规划,恐怕外界很难论断。

AI武器未来战:「杀手机器人」的禁令谬误? 许多国家坚持「有意义的人为控制」是AI武器的标準,人类的生死决定不能委託给机器。不过,部份国家——如美国——则主张应以LAWS是否能达成「适当的人类判断」来讨论,而非传统的人为控制。图为美国海军陆战队,操作配备有机关枪武器的遥控机器。

事实上,自主武器的雏形早在当代AI观念普及前就已存在数十年。像是弹道飞弹防御体系(BMD),该系统就是美军定义里的自主武器,也就是——一旦启动,无须人类干预,就可以择定目标发射交战。当然,人类可以选择取消发射导弹的决定,符合有意义的人为控制,没有人会质疑导弹系统是违反国际法的存在。

不过如前述所说,自主武器目前国际上没有一致定义,使得不少反对派因此时常将「自主」(autonomous)武器与「自动」(automated)武器搞混而混为一谈。前者一般是指可以独立判断行动的AI,后者是指输入预定程序,设定并控制其目标,让它自己行动,又可称为半自主武器。

严格来说,目前世界上并没有真正、完全的、如电影《魔鬼终结者》般的全自主武器问世(至少檯面上没有)。因此德国代表也在上半年的GGE上玩着文字游戏,如此表述:

怎能禁止一些不存在的东西?

AI武器未来战:「杀手机器人」的禁令谬误? 「怎能禁止一些不存在的东西?」图为电影《机械公敌》。

为解决纷争,有学者正试图研拟关于自主武器的定义,关于其能力涵括了三个指标:自主移动、自主导向和自主决定。自主移动意谓系统能够自行移动、自主导向意谓系统能识别目标、自主决定则意谓系统能自行设定计画。若依此定义,目前大多数AI武器具有很高的自主移动和自主导向能力,但极少有自主决定的能力。

由于LAWS的反对者有不少都是军事门外汉,他们可能不了解,像是美国军队研发的「自动化指挥系统」(C4ISR),即是结合电子电脑运算以及人类指挥的现代化指挥体系。这套系统首重指挥(Command)与控制(Control)军队,很难想像有任何指挥官与将领愿意放弃这些核心原则,因此C4ISR的最高治军原则仍是落在人类指挥官上;LAWS支持者认为,人类对AI自主决定的方面必定也会有所限制。当然这也是人类的设想,自主AI的发展未必全如人类的规划。

再回头谈到反对者坚持「LAWS『每个阶段』须受到有意义的人为控制」,支持LAWS一派则认为,这在实际操作上站不住脚:若依照反对者要求,LAWS运作的「每阶段」都必须透过人为控制,必要时人类得终止攻击命令。这个标準先不论终结者技术上是否能做到,就算目前也没有任何武器能「每阶段」都受人为控制,试想当人类对敌方一枪,甚至掷出长茅,武器又怎能自动停止攻击?支持派抓住反对派的语病表示,在开火前有意义的人为控制,当然也符合他们追求的控制原则,只是「每个阶段」实属不切实际。

如此看来,似乎是各方对AI技术的认知不同。目前最接近的是人类协同AI操作的远程遥控飞行器(RPAV),亦即俗称的无人机。真正完全自主的LAWS仍没有应用于战场上,只凭想像或电影小说描绘就否定其功能或许也过于武断。

AI武器未来战:「杀手机器人」的禁令谬误? 目前最接近的是人类协同AI操作的远程遥控飞行器(RPAV),亦即俗称的无人机。真正完全自主的LAWS仍没有应用于战场上。图为美国「掠夺者」无人机(Predator),多用于战场侦查及攻击行动。

▌人道与良知的难题

若从技术面着手,反对阵营似乎难以取得优势,因此现今反对者的论点多立足于国际法原则。依据《日内瓦公约》的第一附加议定书、CCW序言里的《马尔顿斯条款》(Martens clause)精神,他们强调如果交战国遇到国际法没有规範的状况,应该以「人道原则」与「公众良知」,做为各国在评估新技术时的义务性考量。

人道原则是指即使在战时,也必须尊重人的生命和尊严,要求对他人施与人道待遇。因为人类会同情人类,因此有动力以人道方式对待彼此。此外,法律和道德判断使人类能够理解特定环境,做出经过思虑后的决策,包括在战争里最小化伤害,并防止任意与不合理的生命损失。

这些都是AI所欠缺的部分,做为无生命的LAWS缺乏同情心,无法体会人类生命价值及其丧失的痛苦。AI只能根据算法做出生死决定,而算法在複杂和不可预测的情况下效果不佳,也无法针对每种情形先行编程,最终会将人类降低为一般的生物对象,违反人道原则。

公众良知则是指公众和政府对于是非的道德準则。迄今许多团体、专家和政府都强烈反对LAWS的发展,约有26个国家支持先发制人的禁令,超过100个国家呼吁制定一项具有法律约束力的文件,以解决LAWS可能带来的威胁。

AI武器未来战:「杀手机器人」的禁令谬误? 做为无生命的LAWS缺乏同情心,无法体会人类生命价值及其丧失的痛苦。图为美国于叶门东南部的沙巴瓦省,发动无人机空袭后满目疮痍的场景。

也有专家指出,对LAWS有意义的人类控制,就是一种道德义务。像是战争时人类指挥官一旦下令攻击敌方,就有道德义务防範过度的杀戮,这点AI不能替人类做到。总的来说,多数主张表明公众良知倾向于人类控制、反对自主武器,因此LAWS也无法通过此项原则测试。

不过部份国家则有不同想法。如美国认为,武器的自主功能在军事上也可以产生人道主义的利益。因为比起人类对武器的控制,理想上AI的準确性更高,这可以帮助避免对平民的意外伤害,并降低误击友军的机率。

支持LAWS的声音指出,军事机器人也有助于人道干预,因为很多时候各国担心子弟兵受损,拒绝介入他国武装冲突。如果以LAWS代替人力,那幺在阻止种族灭绝和其他大规模暴行,或者是执行国际维和任务时,都有助于减少平民与军人的伤亡。

此外,针对LAWS反对者认为机器人会降低武装冲突的门槛,支持者也不以为然。例如韩国在边界布署的SGR-A1哨兵系统,就有论者认为这增加了朝鲜的侵略成本,从而减少战争的可能。比起人类可能会因身体或心理因素而影响作战,AI是成本更低、效果更高的威吓手段。

AI武器未来战:「杀手机器人」的禁令谬误? 有LAWS支持者认为,像是韩国在边界布署的SGR-A1哨兵系统,就因增加了朝鲜的侵略成本,从而减少战争的可能。

从上述不难发现,大多数支持禁止LAWS的国家都是发展中或低度开发国家,这些国家或多或少都有被强国干预和入侵的历史,可谓受自主武器的潜在威胁最大。像是不结盟运动和非洲集团国家,都希望在2019年CCW能谈判出具有法律约束力的文件,全面禁止LAWS。

然而,这类诉求不切实际。且不论各国是否会达成共识,若失去美国、俄国等自主武器大国的参与,禁令等于一纸空文;就算缔结了国际条约,也很难限制有心想拥有LAWS的国家或非国家行为者。最明显的例子即是比无人机难上百倍的核武技术,即使国际间早有《核武禁扩条约》(NPT),某些国家仍执意发展。

是故,世界各国若真想规範LAWS,或许应採取奥地利、巴西等国的提案,将战场设定在确保对LAWS关键能力的制约,进行有意义的人为控制。甚至,应明确界定自主武器的用途,商定验证各国使用这些武器的方法,并为违法者设立罚则,向国际社会表明AI不会被用于征服侵略而是防御(...接下篇)。

AI武器未来战:「杀手机器人」的禁令谬误? 「美军无人机」、「为什幺要杀害我的家人?」大多数支持禁止LAWS的国家都是发展中或低度开发国家,这些国家或多或少都有被强国干预和入侵的历史,可谓受自主武器的潜在威胁最大。图为叶门街上的壁画涂鸦。

——▌接续下篇/AI武器未来战(下):「无人机」的新世界大战?


为了鼓励作者持续创作更好的内容,会员可以使用「赞助」功能实质回馈给喜爱的作者。可将您认为适合的点数赠送给作者,一旦使用赞助点数即不得撤销,单笔赞助最低点数为{{min}}点,最高点数没有上限。 U利点数 1 点 = NTD 1 元。