首页 > AI资讯 > 行业应用 > 46国支持美国《关于负责任地军事使用人工智能和自主技术的政治宣言》

46国支持美国《关于负责任地军事使用人工智能和自主技术的政治宣言》

新火种    2023-12-04

2023年11月21日,美国国务院宣布,已有46个国家支持美国政府于今年2月16日在荷兰海牙“军事领域负责任使用AI峰会”(REAIM Summit)上首次发布的《关于负责任地军事使用人工智能和自主技术的政治宣言》(Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy)(以下简称“《宣言》”)。美国政府表示,其正在通过建立规范,努力得到全球各国的认同,以促进负责任地在军事上使用AI和自主技术。元战略深度观察,探讨美政府出台的这一政策。

01

《宣言》发布背景

军事AI不仅包括武器,还包括决策支持系统(从战场到会议室、财务、工资和会计,从人员招募、保留和晋升,到情报、监视和侦察数据的收集和融合等一切相关的AI系统),以帮助各国领导人做出更好、更及时的决策。负责任的军队将以降低风险和促进稳定的方式应用AI,通过将更高质量的信息更快地提供给决策者,使他们能做出更好的决策,从而有助于避免意外升级。美国政府表示,其正在通过发布一系列有关军事AI和自主技术的政策努力领导全球各国,最近的一项相关政策是今年11月2日发布的《数据、分析和AI应用战略》。

《关于负责任地军事使用人工智能和自主技术的政治宣言》(Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy)(以下简称“《宣言》”)于2023年2月在荷兰海牙举行的“军事领域负责任使用AI峰会”(REAIM Summit)上首次发布,美宣称,该《宣言》旨在围绕负责任的行为建立国际共识,并指导各国开发、部署和使用军事AI。美国政府表示,《宣言》为交流最佳实践和建设国家能力提供了基础,这将使支持国能够分享经验和想法。美国将召集支持国进行定期对话,进一步推动国际社会支持和实施这些措施。此外,支持国将于2024年第一季度举行会议,开始下一阶段的工作。

02

《宣言》目标

美国政府表示,《宣言》是由一系列不具法律约束力的指导方针组成,描述了负责任地将AI用于军事目的的最佳实践。这些指导方针包括确保军事AI系统是可审计的,具有明确的用途,在其整个生命周期内接受严格的测试和评估,具有检测和避免意外行为的能力,以及高风险应用接受高层审查。美国政府表示,《宣言》旨在为负责任地将AI和自主技术用于军事目的的规范提供国际支持,《宣言》的发布是美国建立国际责任框架的重要一步。具体来说,《宣言》包括以下3大目标:

1. 各国承诺遵守适用于所有军事领域的强有力和透明的规范,无论系统的功能或潜在影响范围如何。

2. 各国承诺继续讨论如何以负责任的方式开发、部署和使用AI军事能力,并继续与国际社会其他成员一起推动这些措施。

3. 《宣言》保留了自卫权以及各国在军事领域负责任地开发和使用AI。

03

《宣言》具体内容

《宣言》包含10项具体措施,包括采取负责任的基本原则、强化法律审查、强化国际人道法实施、减少AI意外偏见、保持适当谨慎态度、采取透明且可审计的方法、为使用人员提供培训、明确军事AI具体用途、减少失败风险。全文如下:

越来越多的国家正在发展AI军事能力,其中可能包括利用AI实现自主功能和系统。AI的军事应用可以而且应该是合乎道德、负责任的,并能加强国际安全。AI的军事应用必须符合适用的国际法。特别是,在武装冲突中使用AI必须符合国家在国际人道主义法下的义务,包括其基本原则。AI的军事应用必须负责任,包括在军事行动期间在负责任的人员指挥和控制链内使用。军事应用AI的原则性方法应包括仔细考虑风险和益处,并尽量减少意外的偏见和事故。各国应采取适当措施,确保负责任地开发、部署和使用其军事AI,包括使能自主功能和系统的能力。这些措施应在军事AI整个生命周期的相关阶段实施。

支持国认为,在开发、部署或使用军事AI,包括那些使自主功能和系统成为可能的能力时,应实施以下措施:

1. 各国应确保其军事组织采纳并执行这些原则,以负责任的方式开发、部署和使用AI。

2. 各国应采取适当步骤,如法律审查,以确保其军事AI的使用符合国际法,特别是国际人道主义法规定的各自义务。各国还应考虑如何利用军事AI加强执行国际人道主义法,并在武装冲突中更好地保护平民和民用财产。

3. 各国应确保高级官员有效和适当地监督具有高风险应用的军事AI能力的开发和部署,包括但不限于此类武器系统。

4. 各国应采取积极步骤,尽量减少军事AI中意外的偏见。

5. 各国应确保相关人员在开发、部署和使用军事AI(包括包含此类能力的武器系统)时保持适当的谨慎。

6. 各国应确保军事AI能力的开发方法、数据源、设计程序和文件对国防相关人员透明并可供其审计。

7. 各国应确保对使用或批准使用军事AI的人员进行培训,使其充分了解这些系统的能力和局限性,以便根据具体情况对这些系统的使用作出适当的判断,并减少自动化偏见的风险。

8. 各国应确保军事AI有明确界定的用途,并确保其设计和工程能够实现这些预期功能。

9. 各国应确保军事AI在其明确界定的用途内和整个生命周期内的安全性、安保性和有效性受到适当和严格的测试和保证。对于自学或不断更新的军事AI,各国应通过监测等程序,确保关键安全特性没有降低。

10. 各国应实施适当的保障措施,以减轻军事AI能力出现故障的风险,例如,检测和避免意外后果的能力,以及在此类系统出现意外行为时作出反应的能力,例如脱离或停用已部署的系统。

为推进本宣言的目标,支持国将:

1. 在开发、部署或使用军事AI,包括那些能够实现自主功能和系统的能力时,执行这些措施;

2. 公开其对本宣言的承诺,并发布有关其实施这些措施的适当信息:

3. 支持其他相关工作,以确保负责任和合法地使用AI军事能力;

4. 在支持国之间继续讨论如何负责任和合法地开发、部署和使用AI军事能力;

5. 促进这些措施的有效实施,并完善这些措施或制定支持国认为适当的其他措施;

6. 进一步促使国际社会其他成员支持这些措施,包括在不妨碍相关主题的其他论坛讨论的情况下,宣扬这些措施。

支持国认识到,AI和自主性的概念可有多种解释。在本宣言中,AI可理解为机器执行原本需要人类智能才能完成的任务的能力。这可能包括识别模式、从经验中学习、得出结论、做出预测或产生建议。AI应用可以指导或改变自主物理系统的行为,或执行纯粹数字领域的任务。自主性可以理解为一个范围,包括系统在启动后无需人类进一步干预即可运行。

04

《宣言》的支持国家名单

美国副总统卡玛拉·哈里斯于11月1日在英国主办的首届全球AI安全峰会发表演讲时,呼吁各国支持美政府发布的这一《宣言》。截止2023年11月21日,已有46个国家对《宣言》表示支持,名单如下:

阿尔巴尼亚、亚美尼亚、澳大利亚、奥地利、比利时、保加利亚、加拿大、克罗地亚、塞浦路斯、捷克共和国、丹麦、多米尼加共和国、爱沙尼亚、芬兰、法国、格鲁吉亚、德国、希腊、匈牙利、冰岛、爱尔兰、意大利、日本、科索沃、拉脱维亚、利比里亚、利比亚、立陶宛、卢森堡、马拉维、马耳他、黑山、摩洛哥、荷兰、北马其顿、葡萄牙、罗马尼亚、圣马力诺、新加坡、斯洛伐克、斯洛文尼亚、西班牙、韩国、瑞典、土耳其和英国。

05

结 语

AI的快速发展以及无人机在乌克兰和中东冲突中的大量使用,使得AI在军事应用中应施加何种限制的问题变得更加紧迫。尽管目前无人机通常依赖人类操作员执行致命任务,但随着各国在开发和部署AI和自主技术方面取得迅速进展,相关技术可能会重塑战争的本质,将决定生死的权力交给搭载AI程序的自主无人机。

目前,美国已经采取了一系列政策,对如何在军事领域中使用AI设定了限制,其中包括美国国防部于今年1月更新的《自主性武器系统指令》;美国国务院于今年2月发布的此《宣言》;美国国防部于今年11月发布的《数据、分析和AI应用战略》,美国正在积极争取其他国家的支持,以共同维护其立场。然而,仅仅依靠这些政策可能还不足以全面解决军事AI带来的风险,如AI偏见和冲突升级。

为了更全面有效地治理军事AI应用,需要更多关于军事AI和自主性武器的强制性法律和补充程序。只有通过这种方式,才能真正解决潜在的问题,确保军事领域的AI应用在合理的框架内,以最大程度地降低风险。

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。