首发 | 军事人工智能会给中美博弈带来何种战略风险?

2023-10-24 10:21:32

来源:军事高科技在线

2023年7月,新美国安全中心(CNAS)推出报告《中美关系和军事人工智能:美国如何在与中国的竞争中管控风险》(U.S.-China Competition and Military AI: U.S.-China Competition and Military AI),探讨在中美博弈加剧和人工智能技术迅速发展背景下,美国如何在中美关系中有效管控由人工智能军事化引发的一系列战略风险,就军事人工智能加剧中美战略风险的可能路径、美国管控军事人工智能战略风险的可选方案和相关措施建议展开了深入分析。报告具有较大参考价值,故将原文内容编译如下,供读者学习交流。
图1:原报告封面
一、军事人工智能加剧中美间战略风险的五条路径
新兴军事人工智能究竟会以何种方式加剧中美间的战略风险?报告讨论了五种可能的影响路径,试图对这一问题进行分析和预测。
(一)重塑中美军事平衡
报告指出,在人工智能军事化应用过程中,由于军事实力单方面提高而造成的竞争双方军事实力失衡最有可能加剧中美战略风险军事人工智能短期内仍将主要用于改善军队的装备维护、军事后勤、人员培训和决策支持等过程,发挥辅助性增益性作用,但这些“幕后”任务与前线部队和武器一样,构成了军事实力的基础。此外,一些新兴军事人工智能系统也将提高部队的作战能力,例如基于人机协同的“忠诚僚机”系统能够帮助提高飞行员的任务度,尽管这种改进可能是渐进式而非革命性的,且相比完全自主的无人驾驶飞行器,“忠诚僚机”对空战范式的变革作用有限。但毫无疑问的是,率先进行人工智能军事应用的一方,其军事实力将快速发展,此消彼长间可能推动中美军事平衡进入新阶段,引发落后方的恐慌和担忧。
(二)深刻影响信息获取和战略决策
报告认为,军事人工智能或将主要以三种方式增加决策和信息领域产生的战略风险:一是压缩决策时间,如果人工智能可以帮助一方更快决策,那么另一方可能会为了跟上对手的行动而仓促决策,这种时间压力可能会加剧紧张局势甚至制造一场新的危机;二是诱导决策者做出错误决策,人工智能系统的决策过程处于技术“黑箱”中,如果对人工智能系统的运行机制和缺陷缺乏清晰认知,重大战略决策最终可能会建立在对被恶意捏造、扭曲的信息或其他劣质信息的分析的基础上;三是通过大规模信息活动影响对手认知,借助人工智能生成海量含有指向性的文本、音频、图像或视频,破坏政治稳定、混淆高层决策、制造同盟裂痕,引发或加剧政治危机。
图2:基于人工智能的“深度伪造”技术已经能够快速生成海量的伪造信息
(三)自主武器系统
首先,如果自主武器系统提供了更强的军事能力,决策者将可能更倾向于使用武力,因为他们相信取胜的机会会更高。其次,使用自主武器系统的军事行动在人员伤亡方面的预期风险较低,这可能会让双方领导人更有可能采取行动。再次,自主武器技术将极大增强现有武器系统的作战能力,例如使高超声速武器具备机动变轨的自主性,令敌更难拦截;或借助机器学习提高防空系统的预测能力,使反高超声速和其他高端导弹防御系统的部署成为可能,为使用方赋能更强的军事实力。最后,具备自主性的无人机群理论上可以为针对对手核武库的常规反击提供新的选择,这种潜在能力将可能打破战略平衡,加剧发生战略误判的风险。
(四)情报、监视和侦察(ISR)
军事人工智能已经为完成情报、监视和侦察任务提供了新的工具,并且在未来可能发挥更大作用。军事人工智能与现有技术的结合,可以极大提高完成ISR任务的效率和性价比。例如将人工智能与气球或微卫星星座相结合,以在“近地空间”进行监视,或为侦察无人机赋能群集性。人工智能系统还可以大规模处理来自各种传感器的数据,以跟踪陆地上的移动导弹系统甚至大洋中的潜艇。如果这些能力成为现实,它们将为军事实力领先者提供能够破坏战略稳定性的单向透明度,进而彻底损害对手三位一体核力量的生存能力,也能极大增加弱势方采取“先发制人”打击的可能性和必要性。
图3:自主武器系统应该掌握“开火权”吗?
(五)指挥、控制和通信(C3)
人工智能可以使网络和电磁战(EW)攻击更具威胁性和破坏性。随着大数据输入在人工智能训练中变得越来越重要,双方都可能会通过修改或微调数据集来故意降低系统性能进而达到“毒害”对手的目的,这可能导致人工智能指挥、控制和通信系统的不确定性或可预测故障,被对手利用。另一个具体担忧是,军事人工智能可能会影响核武器的C3系统。核预警系统将越来越依赖人工智能技术快速分析来自各种传感器的数据,但该系统可能会错误解读数据,产生误报,其结果可能引发两败俱伤的残酷核战争。
二、美国管控军事人工智能战略风险的三种方案
报告指出,美国需要采取一系列措施来防范军事人工智能给中美双边安全关系带来的各种潜在危险,这些风险来源在现实中可能重叠,风险组合管理旨在减少多种不同的不稳定驱动因素,报告在此讨论了管控军事人工智能战略风险的三种方案。
(一) 限制中国军事人工智能技术发展
报告强调,人工智能可能加剧风险升级的一种途径是它为一方提供足够大的军事优势,使该国相信它可以以可接受的成本发动战争并实现其目标。因此,美国需要设法阻止中国人工智能技术发展,避免军事力量平衡向有利于中国的方向倾斜。与此同时,大力发展美国的人工智能能力,使其始终处于领先地位,形成技术优势威慑。目前,美国阻止中国军事人工智能发展的重点主要集中在支持人工智能系统的重要硬件——先进半导体上,同时有针对性地从数据、算法和人才方面加以限制。例如美国政府对TikTok(海外版抖音)的打压,部分原因是担心美国人的数据可能被用来推动中国人工智能技术进步。美国还将对用于地理空间分析的人工智能算法源代码进行严格监管,并进一步限制面部识别软件、大型语言模型等通用算法的输出或披露。在人才政策方面,美国政府会采取进一步措施,阻止中国学生在美国学习人工智能技术。
图4:美国借口“国家安全”打压TikTok
(二) 加强单边责任管理,负责任管控军事人工智能
报告指出,最小化平民伤亡应作为军事人工智能的一个关键设计原则,降低军事人工智能风险的最佳方法是将系统的安全性和可靠性与其杀伤力或效率放在同等重要的位置,并严格执行测试和评估、验证和确认。为了最大限度地减少不确定性,中国和美国需要采用安全的设计原则。美国就军事人工智能的开发和使用制定了一系列单方面的宣言性政策。美国国防部《人工智能原则:国防部人工智能应用伦理的若干建议》要求美军在使用人工智能时做到“负责、公平、可追溯、可靠和可控”。这些核心原则在后续发布的文件中得到了重申和补充,如《负责任的人工智能实践指南》、《负责任的人工智能战略和实施途径》以及2023年1月发布的《自主武器系统指令》(DoD Directive 3000.09 ),这些文件规定了如何使用人工智能并将其融入国防项目的整个生命周期。
(三)进行双边和多边外交,降低战略风险
防止危险的力量失衡、代价高昂的军备竞赛或误判的另一种方式是进行双边和多边外交。通过谈判达成军备控制协议或建立信任措施,各国可以尝试为特定军事技术的开发或使用设定界限,然后核查遵守情况。中国和美国应该讨论对人工智能风险应用的限制,如规范其在核指挥与控制或进攻性网络行动中的使用。美国和中国政府可以利用双边和多边渠道,就人工智能对国家安全的影响交换意见。中美两军也可以开展对话,双方就人工智能的军事能力及其用途提出问题,并就交战规则、行动冲突和其他主题进行沟通,充分表达各自诉求和期望。除官方渠道外,两国还可利用1.5轨和2轨对话,增进理解与共识。
三、报告为美国决策层提供的九项措施建议
军事人工智能的出现可能会加剧中美竞争,增加战略风险。为了有效应对这一趋势,报告认为美国的政策制定者应该从9个方面进行努力。
(一)限制相关国家人工智能的发展
报告建议美国政策制定者继续限制半导体生产设备和技术、先进芯片等终端产品的对华出口,阻碍相关国家推进军事人工智能。此外,还建议美国寻找或开发监管人工智能和其数据、算法、人力的创造性工具。明确发展人工智能军用和军民两用技术,并不断完善其政策,确保有效性,同时警惕政策为技术发展带来限制。
(二) 保持美国军事人工智能的领先地位
报告指出,美国必须迅速采取行动,跟上中国军事人工智能的发展速度。这需要在许多领域进行改革,例如,将“韧性”作为军事系统的关键属性。要想在这方面取得成功,不仅国防部要做出努力,还需要更新移民和教育政策,吸引、培训和留住世界各地最优秀的科学家和工程师。
(三) 制定、颁布和实施负责任的军事人工智能规范或法规
美国应将自己定位为军事人工智能技术开发、操作规范制定和最佳实践的全球主要推动者。美国近期的主要优先事项应包括进一步充实在核C3基础设施上实施网络攻击(包括人工智能)规范的操作细节,并履行2022年《核态势评估报告》(Nuclear Posture Review,NPR)的承诺。简而言之,美国的行动必须与其在负责任地使用军事人工智能方面的言论相符。
图5:美国自2018年起对华为展开全方位打压
(四) 主动与盟友、伙伴以及多边机构接触
区域和全球伙伴关系在促成美国战略目标完成方面发挥着至关重要的作用。美国应积极将相关问题的磋商纳入其同盟和伙伴关系,扩大G7、北约、AUKUS及与日本和韩国双边关系的讨论范围,积极推进、倡导美国在多边论坛中的立场。
(五)与中国就降低军事人工智能相关风险和建立信任进行磋商
报告建议,美国可以尝试拓展与中国建立军事人工智能的谈判渠道,如开发中美军事人工智能术语词汇表,保证双方对关键概念有共同的定义,减少由于语言和文化障碍造成的误解。双方还可以基于人工智能能力制定风险等级,例如将后勤保障相关的人工智能确定为低风险等级,将自主核武器人工智能确定为高风险等级。进一步讨论人工智能应用领域,同时规定人工智能在致命武器中的使用规范。即使双方的谈判不会达成预期结果,探讨这些问题也有助于增进对彼此的理解。
(六) 持续寻求建立中美战略风险和危机管理机制
建立有效的中美外交渠道,尤其是保持首脑级别的联系,对降低战略风险、管理潜在的危机至关重要。报告建议美国要持续探索建立中美战略风险和危机管理机制,即使是间歇性发挥作用,也胜过没有机制。
(七) 使军事人工智能成为与核武器和战略稳定相关的对华外交基本支柱
军事人工智能在核能力与其他战略能力的平衡方面发挥着越来越重要的作用。报告建议,由美国在联合国五个常任理事国层面发起推进关于“战略稳定”的讨论,并将军事人工智能纳入谈判。
(八)降低其他领域的战略风险
报告认为,美国应尽快采取措施,减低其他相关领域的战略风险,谨慎采取单边行动。例如在局势紧张加剧时推迟洲际弹道导弹试验,特别是在不需要立即进行试验来确保安全、可靠和有效的核威慑的情况下。
(九)强化情报收集、分析和评估
军事人工智能的发展走向不仅取决于它本身,还取决于它与核武器、军事基础设施、通信能力等因素之间的相互作用,因此迫切需要加深对军事人工智能相关的整体战略稳定性的理解。报告建议美国责成相关组织完善或在需要时建立多学科办公室和专家骨干,密切关注中国的民用及军事人工智能活动,监测、分析与该问题相关的情报,并给出建议。
四、结 语
人工智能军事应用可能加剧战略风险,需要各国携手对人工智能技术发展加以探索和规制。面对人工智能技术给人类社会带来的机遇与挑战,各国应该用对话打消猜忌,用合作取代对立,携手推动人工智能领域依良法、促善治,使人工智能技术真正造福于人类。

文字 | 文力浩、陈琳(国防科技大学)
图片 | 来源于网络
编辑 | 韩建臣
审阅 | 许婧

  • 关键词:
  • 军事人工智能
相关阅读