发布时间:2024-08-27 14:17

外媒敦促美公布自主武器失误案例

  参考消息网8月27日报道 欧洲《现代外交》网站8月22日发表了题为《公布致命自主武器系统的失误及其位置以避免意外升级》的文章,作者是扎卡里亚·拉希米,全文摘编如下:

 

  人工智能-致命自主武器系统很可能在不久的将来被投入战场或得到广泛采用。不过,自主武器系统(AWS)由于其新奇、快速和模糊特性,存在导致意外升级或冲突的巨大风险。笔者建议,作为一项建立互信的标准措施,美国应开始公布AWS失误案例以及它们发生的位置。

 

  在过去几年里,人工智能及相关技术取得了长足进步。正在考虑并试验采用人工智能的一个领域是作战或军事使用,正在进行的俄乌冲突就是例证。包括美俄在内的世界各国军队一直在进行人工智能驱动的致命自主武器系统的试验。

 

  美国国防部把致命自主武器系统(LAWS)定义为“一旦激活后可在无需操作员进一步干预的情况下选择并打击目标的武器系统”。国防部还对LAWS的多个自主等级作出描述。

 

  AWS存在各种风险,其中之一是导致意外升级或冲突的可能性。与人类一样,AWS并非万无一失,可能出现失误、纰漏、故障、过错。这些问题可能呈现不同的形式,例如与不该交战的目标交战、在紧张时期越过边界、杀害平民、在可被察觉的情况下瞄准敌人等。

 

  这些失误和过错是人工智能的性质使然。人工智能依赖庞大的数据库为决策提供依据。然而,如果数据库太小、缺乏特定或罕见场景,那么人工智能将无法对形势作出干练的应对。

 

  人工智能程序还缺乏“常识判断”,而人类却可以理解在和平时期“保护某区域不受敌军侵害”这样的指令,意味着保持警戒但不引发冲突。

 

  可能导致意外升级或冲突的AWS失误或过错,存在多种原因,其中之一是AWS武器系统的新奇性。政治、军事和外交领导人缺乏与人工智能和AWS武器打交道的技能或经验。另外还存在人工智能和AWS可能缺乏人类共同遵守的规则和指引的问题。这种人类与人工智能交往中的理解或经验的缺失——尤其是在紧张时期、冲突或冲突降级期间——可能导致人类或AWS采取升级或制造冲突的行为。

 

  另一个可能的原因是AWS作出决定或采取行动的快速性。由于领导人作出决定的时间有限,他们收集信息、研究选项和作出周密决策的能力也将受到限制。

 

  AWS失误、纰漏或过错可能导致意外升级或冲突的主要原因,是归因和模糊性问题。归因是指分辨什么人采取了某项故意行为及其原因。归因对于领导人的决策过程极其重要,尤其是在冲突或紧张时期,它可以让领导人了解某种行为并指导应对。AWS缺乏归因能力将造成争议情形下的模糊性,这种模糊性将大大增加发生误会、误解和误判的机会。

 

  要想限制AWS武器系统出现导致意外升级或冲突的失误的机会,笔者建议,作为一种建立互信的措施,美国应制定和推广公布AWS过失的实例,以及它们发生位置的规范。

 

  公布AWS过失实例及其发生位置将在两个方面限制发生意外冲突的可能性。公布AWS正在被使用的位置将使外国或敌方领导人可以起草和确定应对AWS的规程,从而让他们有更多时间就何时进行AWS互动作出决定。

 

  其次,这样做还将让外国领导人了解AWS,从而降低它们的新奇性。这两个结果都将降低在AWS失误发生时有人作出错误决策,从而导致意外升级的可能性。(编译/曹卫国)