首页 > AI资讯 > 最新资讯 > 美军方鹰派:人工智能已经处于战争状态

美军方鹰派:人工智能已经处于战争状态

新火种    2023-11-15

11月1日至2日,首届人工智能安全峰会在英国布莱奇利园举行。美国、英国、欧盟、中国、印度等近30个国家和地区代表就人工智能技术快速发展带来的风险与机遇展开讨论。峰会发布的《布莱奇利宣言》指出,人工智能的许多风险本质上是国际性的,因此“最好通过国际合作来解决”。

宣言并没有指出具体的合作路线图。但值得肯定的是,这是国际社会共同商讨人工智能技术发展与应用的一个好的起步。对于各国应该采取何种应对举措,今年已有智库学者呼吁中美等大国合作,共同监管AI(详见《美智库:中美应该合作监管AI》)。就在英国人工智能安全峰会举办之际,曾于2009年到2012年担任美国国防部国防政策次长的米歇尔·弗洛诺伊(Michèle Flournoy)在《外交事务》杂志发文,谈及了人工智能对美国国防和情报工作及战争模式带来的“变革”。她呼吁美国加大对人工智能的研发和在军队中的应用,以掌握超越对手的优势地位。

弗洛诺伊曾是拜登优先考虑的国防部长人选,但由于她和军工企业关系过密,以及她曾在美国政府在利比亚和中东的军事干预中担任过的职务,遭到民主党内进步势力的反对。鉴于她和克林顿、奥巴马两届民主党政府的人脉关系,希拉里当年也曾计划在胜选后提名她担任首位女防长。她的职业生涯体现了美国政府、智库与企业之间典型“旋转门”经历。她曾加入智库“战略与国际问题研究中心”,并协助创办保守智库“新美国安全中心”(CNAS)。两家机构都接收过军工企业的大量资助。2012年从奥巴马政府离职后,弗洛诺伊又加入军工合作企业“波士顿咨询集团”。2017年,弗洛诺伊参与创办了政治战略咨询公司WestExec Advisors,帮助军工企业向五角大楼推销订单。

她在美国军事政策圈有很大的影响力,被视为“超级鹰派”,主张通过军事手段强力干涉中国台海和南海事务。在人工智能领域,她的见解以维护美国的军事霸权地位为出发点,认为人工智能已经引发一场安全革命,美国必须加速发展人工智能,并积极招揽优秀人才。同时她也希望美国在AI研发方面做好“护栏”,平衡好AI速度与安全的关系以及伦理道德和责任方面的要求。比如,她主张五角大楼禁止在核武器指挥控制系统中使用人工智能,并敦促其他核大国也这样做。她也希望美国与中国讨论人工智能。

一些研究人员担心人工智能的危险,呼吁暂停发展AI。但是,弗洛诺伊认为,阻止美国人工智能的进步是不可能的:人工智能的数学基础无处不在,创造人工智能模型的人类技能已广泛扩散,驱动人工智能研发的人类创造力和商业收益亦非常强大。试图阻止AI进步也是一个错误。她在文章中提到,中国正在努力在人工智能方面超越美国,特别是在军事应用方面。如果成功,中国将拥有一支更强大的军队,其行动能力、速度和效果,都有可能超过美国。中国使用网络和电子战对抗美国网络和关键基础设施的能力也将增强。简而言之,五角大楼需要加速部署负责任的人工智能。如果不这样做,华盛顿可能会失去保障美国利益、盟友和伙伴安全以及基于规则的国际秩序的军事优势。

以下是她文章的主要内容。

----

2002年,一支特别行动小组演习突袭一处恐怖分子藏身之所。小组悄悄接近一座专门为军事训练而修建的两层楼,里面藏着一个虚构的恐怖分子头目。一名士兵小心翼翼地走近一扇开着的窗户前,扔进一架由人工智能驾驶的小型无人机。这架人工智能无人机开始在大楼里自动飞行,一个房间接一个房间,将摄像头拍摄的画面直接传送到外面指挥官的手持平板电脑上。在短短几分钟内,该小组就对大楼内部的情况有了全面的了解,知道哪些房间是空的,哪些房间有家庭成员正在睡觉,以及头号目标所处位置。行动小组进入大楼时知道具体的行动路线,减少了每个成员面临的风险。这次演习很成功:如果是真的,这支队伍早就杀死恐怖分子头目了。

这架由人工智能驾驶的四轴飞行器由Shield AI设计,后来被用于实际作战。这只是人工智能开始重塑美国国家安全的方式之一。美国军方正在使用人工智能来优化从设备维护到预算决策的一切工作。情报分析师依靠人工智能快速扫描海量信息,以识别相关模式,使他们能够做出更快、更好的判断。在未来,人工智能也会改变美国及其对手在战场上的作战方式。

简而言之,人工智能引发了一场安全革命,而这场革命才刚刚开始展开。

美国AI发展现状与不足

加速部署AI,说起来容易做起来难。在人工智能研发方面,美国可能处于世界领先地位,美国政府仍在努力快速、大规模地采用人工智能等创新技术。但它还没有雇用足够的专业技术人员来测试、评估、采购和管理AI产品。它仍在构建支持大型人工智能模型所需的数据和计算机基础设施。它缺乏所需的灵活资金,无法迅速采用最有前途的人工智能原型,并在各机构之间进行推广。它还没有建立测试和评估流程和平台,以确保任何集成到美军系统中的人工智能都是安全、可靠和可信的。如果美国要将人工智能用于动用武力方面,就必须保持非常高的安全性和可靠性门槛。

▲美军在人工智能基地测试无人机。

美国政客和国防官员都意识到了这些问题。美国国会正在讨论如何监管该行业,同时保持其全球竞争力。但国会尚未采取行动,五角大楼的人工智能框架的实施仍在进行当中。尽管五角大楼设立了“首席数字和人工智能办公室(CDAO)”,但美国国会尚未为该办公室提供所需的资源。为了确保人工智能的国防应用既安全又成功,五角大楼需要进一步加强人工智能护栏,增加新的技术人员,并开发用来测试和采购人工智能的新方法。时不我待,美国一旦落后,面临的风险太高。

AI对美军带来的改变

尽管相关政策和法规仍在制定中,但人工智能已经在改变美国的安全。例如,美国空军正开始使用人工智能来帮助其分配资源,并预测单个决策如何影响其项目和预算。军方也开始使用人工智能模型从平台的传感器收集数据,维护复杂的武器系统。这些帮助美军维护武器系统的见解非常有用,但它们只是“预测型人工智能”(Predictive AI)的起步功能。美国情报界和几个美国作战司令部正在使用人工智能筛选大量机密和非机密数据,以识别行为模式并预测未来的国际事件。比如,在情报界,人工智能帮助分析人士提前数月预测俄罗斯入侵乌克兰,使美国能够向世界发出警告,并让俄罗斯总统·普京措手不及。

“预测型人工智能”还可以让美国更好地了解中国的想法。冷战顶峰时期,美国有大批专家研究苏联决策,而美国现在仍在研究中国政府如何将政策转化为具体行动。例如,美国情报界可以开发一个大型语言模型,纳入中国官方所有可用的文字和演讲,以及美国自己针对这些数据的情报报告,然后模拟中国可能会如何执行既定政策。

人工智能还可以以其他方式支持军事行动。例如,如果对手要干扰或攻击美国的指挥、控制和通信网络系统时,人工智能可以启用智能交换和路由代理,对传感器、决策者和射击者之间的信息流进行重新定向,以确保它们保持连接并保持态势感知。美国具备这些能力对于确保其与盟友能够比对手更快地做出更好的决策至关重要。

人工智能还可以通过放大个人在战场上的表现来进一步帮助美国和盟国部队。目前,美国正在开发的一些人工智能应用程序允许单个操作员控制多个无人系统,例如空中、水上或海底的一群无人机。例如,战斗机飞行员可以使用一群飞行的无人机来迷惑或压倒对手的雷达和防空系统。

五角大楼最近宣布了“复制者”(Replicator)无人机计划,该计划承诺在未来两年内部署数千个小型、智能、低成本、可消耗的自主系统。这种人机合作可能会在台海冲突中发挥至关重要的作用。如果中国决定武统台湾,美军长途跋涉且数量少,不具备作战优势。如果美军可以用大量相对便宜的“无人系统”来增强其“载人平台”,如战斗机、轰炸机、舰艇和潜艇,它可以在一定程度上弥补相对劣势,并使中国军队的行动更加复杂化。

如何和大国竞争?

当然,中国无意将技术主导地位拱手让给美国。中国正在努力开发自己的先进人工智能军事应用。中国在许多与美国相同的人工智能用例上投入了大量资金,比如监视、目标识别和无人机群。在大国技术竞争中,中国有一些明显的优势。与华盛顿不同,中国可以决定其国家的经济优先事项,并分配任何必要的资源来实现人工智能目标。由于中国实行“军民融合”政策,中国军方随时可以吸引中国专家和公司为其工作。到2025年,中国在科学、技术、工程和数学领域培养的博士研究生数量将是美国的近两倍,特别是有才华的计算机科学家将涌入中国经济系统。

美国有自己独特的优势,即美国的市场经济和政治体制。它在硅谷、奥斯汀大都会区、马萨诸塞州128号公路走廊和其他地方拥有无与伦比的创新生态系统。它也拥有一个充满活力的风险资本和私募股权生态系统,吸引了无可比拟的国内和国际投资。它是世界上许多顶尖大学的所在地,使得它能够吸引和留住一些世界上最好的科技人才。事实上,硅谷一半的初创公司至少有一位创始人是移民。

为了让美国更好地赢得AI竞争,美国国防部和情报界将不得不在加速人工智能应用方面投入更多资金。他们可以从建立共享相同标准的通用数字基础设施系统开始,以确保互操作性。工具的好坏取决于操作它们的专业人员。而目前,美国国防部还没有一支熟练掌握数字技术的员工队伍。很少有人对人工智能有足够的了解,能够正确地管理其使用、测试和评估人工智能工具,以确保它们符合五角大楼的“负责任的人工智能”(Responsible AI)标准,或者评估哪种人工智能模型最能满足军方或国防部的需求。

为了吸引更多的人工智能人才,并更好地利用现有的技术劳动力,美国国防部需要改进招募和管理数字技能员工的方式。所有现有的军事院校都应该开始教授人工智能的基础知识,五角大楼还应该建立一所美国数字服务学院,教育和培训有抱负的文职技术人员,为他们提供免费的大学教育,以换取他们承诺在毕业后至少为政府服务五年。最后,国防部应该建立一支数字后备军,让来自美国各地的技术工作者可以自愿兼职为国家服务。最重要的是,五角大楼必须改进工作方式,像私营部门那样招揽和利用外部人才。

尽管内部改革将帮助五角大楼加快进展,但国防官员也需要国会的持续支持,才能跟上中国同行的步伐。为此,国会应该给予国防部更灵活的资金,使其能够以最佳方式管理人工智能项目。美国还需要继续吸引世界上最优秀的科技人才,包括改革美国移民制度,让专业技术学生和工人能够来到美国并留在美国。比如,现在的教育签证不允许外国学生在毕业后在美国停留超过三年。由此导致的结果是:美国机构培养了许多世界上最好的技术专家,结果却把他们送走了。他们中的许多人是中国人,并返回了中国。

简而言之,美国正在将急需的外国人才拒之门外,这些人才愿意为美国在人工智能和其他关键技术领域的竞争力方面做出有意义的贡献。

高风险与高回报

人工智能对美国的未来安全至关重要,但也会带来重大风险。比如,人工智能已经加速了网上虚假信息的传播,并在招聘中助长了无意的歧视。计算机科学家认为,人工智能也可以实现“机器速度”的自动网络攻击;化学家已证明,人工智能可以合成化学武器;生物学家担心人工智能可能被用来设计新的病原体或生物武器。这些风险非常严重,甚至连人工智能行业的领导者都发出了警告。2023年5月,几乎所有美国的人工智能实验室的负责人都签署了联合声明,警告他们的发明可能对人类的生存构成威胁。

事实上,国家安全属于人工智能风险最严重的人类活动领域。例如,人工智能模型可能会错误地将人或物体识别为目标,从而在冲突期间导致意外死亡和破坏。在一种情况下可能是完全理性和负责任的AI模型,在另一种情况下却可能是不合逻辑且危险的。五角大楼意识到了这些风险,并于2020年2月发布了一套规范人工智能使用方式的伦理原则。对于自动和半自动武器,美国国防部发布了更具体的指导意见。例如,任何人工智能武器都必须能够区分战场上的战斗人员和非战斗人员。

五角大楼还禁止在核武器指挥控制系统中使用人工智能,并敦促其他核大国也这样做。虽然这些“负责任的人工智能”规则在美国防务界的领导层中已经达成了很大共识,但将它们付诸实践绝非易事,尤其是考虑到美国国防装备的规模。目前,五角大楼已经启动了这一进程,但仍处于初级阶段。

尽管如此,五角大楼进一步加强(“负责任的人工智能”)指导方针将是明智之举。伦理原则从一开始就应该被视为国防人工智能模型设计的必要特征。除非公众相信它将以有效、负责任、道德和合法的方式使用人工智能,否则美国军方将无法加速人工智能的部署。五角大楼应该考虑让供应商对他们如何开发人工智能设置护栏。例如,如果一家公司想向军方提供人工智能,国防部可能会要求它满足严格的数据保护和网络安全标准。通过这样做,五角大楼可以帮助人工智能变得更安全。

和中国与盟友的对话与合作

当然,美国不能单凭一己之力确保人工智能的开发和使用是负责任的。其他国家,包括竞争对手,也将不得不采取政策保障和规范。2021年11月,193个国家批准了一项关于人工智能伦理的全球协议《人工智能伦理问题建议书》,这是世界上第一个此类协议。该文本确定了共同的价值观和原则,用以指导建设必需的法律框架来确保人工智能的发展。尽管这项协议是一个重要的基础,但美国应该寻找与中国讨论人工智能的渠道,就像它在冷战期间与苏联讨论核武器和其他形式的军备控制一样。除此以外,美国还必须与其盟友和伙伴密切合作,保持一致行动。

在国家安全领域,人工智能的进步体现了另一种“摩尔定律”。未来几年,无论哪支军队首先掌握了将数据和人工智能的使用进行组织、整合和制度化,那么它将获得军力的指数级进步,使其具有比对手更显著的优势。在这方面,美国不能落后。但国家安全机构也承担不起疏忽大意而导致的后果。如果没有适当的保护措施,人工智能模型可能会造成各种意想不到的伤害。

美国似乎面临一个困境:减缓人工智能发展的风险高得令人无法接受,但在没有必要预防措施的情况下加速发展人工智能的的风险也同样令人无法接受。美国的政策制定者似乎理解这个悖论。美国国会领导人知道,监管过严可能会促使最优秀人才离开美国,这样美国就会落后于竞争对手。但两党政策制定者也明白,一些监管和监督对于确保人工智能“被安全和负责任地采用”是至关重要的。

理解这个问题只是第一步。为了解决这个问题,平衡速度与安全之间的需求,政策制定者必须采取更好的方法来加速AI采用并确保安全。否则,美国人就有可能陷入一个人工智能风险不断上升、美国实力和影响力不断下降的境地。

相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。