首页 > AI资讯 > 最新资讯 > 外国专家怎么看军事人工智能?

外国专家怎么看军事人工智能?

新火种    2023-10-26

外国专家怎么看军事人工智能,这很重要!有很多战友总说想看点不一样的东西想知道一些外面世界的信息今天开始,剑客君给大家连载一系列文章,点赞收藏。今日文章:军事人工智能的人道视角文|尼尔·戴维森(来源于香山论坛投稿)可以说,自我上次访问北京以来,科学和技术领域最重要的一些发展是在机器学习方面,包括大型语言模型的快速发展——人工智能工具迅速引起了公众的

图片源于网络

因此,我特别高兴能参加今年论坛中关于加强人工智能国际安全管理的讨论。红十字国际委员会已提请各方注意从人道视角会看会产生重大人道影响的人工智能在武装冲突中的若干应用。例如,人工智能的某些军事应用可能会增加自主武器带来的危险,加剧网络行动和信息战对平民造成的伤害,并对人类判断在武装冲突中的关键作用产生负面影响。其中最令人担忧的是,有人建议人工智能可被用于核武器使用方面的决策指导,这就有可能加剧使用核武器的风险,造成灾难性后果。

图片源于网络

近年来,中国发表了《加强人工智能伦理治理》和《规范人工智能军事应用》的立场文件,并在最近的《携手共建人类命运共同体:中国的倡议与行动》中表达了对 "人工智能缺乏完善治理 "的担忧。令人鼓舞的是,中国强调人工智能应 "以人为本 ",且应遵循“人工智能为善”的原则。这与红十字国际委员会对武装冲突中的人工智能所采取的 "以人为本的方法 "相互关联——该方法的重点是基于武装冲突参与者的法律义务和道德责任来保留人类对武器的控制和判断。红十字国际委员会的即刻关切是当今武装冲突中人工智能的高风险应用。因此,一个重要的优先事项是应对自主武器在军事上日益发展所带来的危险——自主武器指在没有人类干预的情况下选择并对目标使用武力的武器。此类武器引发了严重的人道、法律和伦理问题,而人工智能又加剧了这些问题,因此红十字国际委员会一直在敦促各国通过新的国际规则,对这些武器加以具体禁止和限制。

图片源于网络

10 月 5 日,联合国秘书长安东尼奥·古特雷斯和红十字国际委员会主席发出紧急联合呼吁,要求各国在 2026 年之前完成上述有关谈判。红十字国际委员会强调,必须禁止使用直接以人为攻击目标的自主武器和不可预测的自主武器,例如由机器学习控制的武器,同时对所有其他武器制定明确而具体的限制。这与中国明确规定(必须受到禁止的) "不可接受的自主武器系统"和(必须受到规范)的 "可接受的自主武器系统"的做法相辅相成。随着当今武器的获取及其在冲突中的使用的快速发展,红十字国际委员会欢迎中国在此方面的举措,并鼓励中国加强努力,争取地区和国际社会的支持与合作,为自主武器划定明确的法律红线,以保护现在和未来几代人。像北京香山论坛这样的论坛为寻求对话提供了一个独特机会,以支持将有效应对当代挑战的多边倡议。

图片源于网络

红十字国际委员会非常重视与中国的持续对话,无论是通过该组织常驻北京的红十字国际委员会东亚地区代表处、还是通过常驻位于纽约联合国总部的双方相关代表机构、以及与中国常驻日内瓦使团开展对话。我个人非常期待在第十届北京香山论坛上就这些问题进行深入交流。作者简介:尼尔·戴维森(Neil Davison)是位于日内瓦的红十字国际委员会(ICRC)总部国际法、政策和人道主义外交部武器和敌对行为部门的高级科学和政策顾问。尼尔自2011年以来一直代表红十字国际委员会参加多边裁军讨论。领导红十字国际委员会应对自主武器和军事人工智能等新兴技术带来的挑战。在加入红十字国际委员会之前,尼尔在民间从事政策研究。尼尔具有生物学背景,获得了和平研究的博士学位。

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。