人类士兵是否会信任他们的机器人战友?

2024-07-02 11:55:25

来源:国防科技要闻

       
专题报道
 
美国“电气和电子工程师协会频谱”(IEEE Spectrum)网站2024年4月27日发表圣何塞州立大学的人类学教授罗伯特·J·冈萨雷斯撰写的文章《人类士兵会信任他的机器人战友吗?》。文章分析了美军中普遍存在对智能机器人缺乏信任的问题,梳理了美各军种为促成作战人员对自主机器人系统的信任所采取的举措,介绍了相关实验取得的成果,相关内容具有启发借鉴意义。现节选编译如下。
在过去10年的大部分时间里,几位有影响力的五角大楼官员一直在不遗余力地推广机器人技术,并承诺未来“人类将组成一体化团队,拥有几乎完全自主的无人系统,能够在竞争激烈的环境中执行任务。”美国政府正在花费惊人的资金来推进这些技术:在2019财年,美国国会向国防部提供96亿美元用于资助无人驾驶和机器人系统,远远超过整个国家科学基金会的年度预算。支持扩展自主系统的论点是一致和可预测的:这些机器将保证我们军队的安全,因为它们可以执行枯燥、肮脏和危险的任务,将减少造成的平民伤亡,将具有成本效益和效率。前国防部副部长罗伯特·沃克最直言不讳地支持军队机器人化。在2015年的一个防务论坛上,他以洛克希德·马丁公司最新的隐身战斗机为例,描述了“人机协作”将利用大数据分析赢得战争的未来:“F-35不是一架战斗机,它是一台飞行传感器计算机,可以吸收大量数据,将其关联起来进行分析,并显示在飞行员的头盔上。”《纽约时报》2016年的一篇文章称:“军方内部的争论不再是是否制造自主武器,而是赋予它们多大的独立性。”
 
机器人士兵究竟是何物?
 
20世纪初,军事和情报机构开始开发机器人系统,这些系统大多是由人类控制远程操作的设备。但微芯片、便携式电脑、互联网、智能手机和其他发展加速了创新的步伐。同样,从各种电子来源和传感器获取的海量数据也是现成的。《金融时报》报道:“人工智能的进步带来了机器人士兵与人类并肩作战的前景,并且有朝一日会使人类黯然失色。”所有这些都提出了一个问题:“机器人士兵”究竟为何物?它是一个远程控制的、有轮子的装甲盒子,完全依赖于明确的、连续的人工指令吗?它是一种可以被激活并在有限程度的人为监督或干预下半自主运行的设备吗?它是一个能够选择目标(使用面部识别软件或其它形式的人工智能)并在没有人工参与的情况下发起攻击的机器人吗?在远程控制和完全自主之间存在着数百种(或数千种)可能的技术配置,而这些差异影响着谁对机器人的行为负责的想法。
美国军方的机器人和自主系统包括大量依赖远程控制或人工智能的人工制品:空中无人机;各类地面车辆;时尚的战舰和潜艇;自动化的导弹;还有各种形状和大小的机器人—两足机器人,像狗或骡子一样奔跑的四足机器人,昆虫成群的机器,以及像鱼、软体动物或甲壳类动物一样的流线型水生设备,不一而足。
军事计划者预测的转变表明,美军正处于一个三阶段的演进过程中,从遥控机器人开始,人“在回路中”,接着进入半自主和受监督自主系统,人“在回路上”,然后以采用完全自主系统结束,人“不在回路中”。目前,军事领域的大部分争论都与自动化系统允许或需要人工干预的程度有关。近年来,许多炒作都集中在第二阶段:国防部官员称之为“人机团队”的半自主和受监督自主系统。
2015年11月,沃克高调发表了一篇关于人机合作重要性的演讲。有说法称,沃克的设想是“计算机将驱动导弹、瞄准激光、干扰信号、读取传感器,并通过网络将所有数据汇集在一起,将其放入一个直观的界面中,人可以阅读、理解并使用它来指挥任务”—但人仍将参与其中,“使用机器使人做出更好的决策。”
 
对机器的怀疑
 
不过,战地人员对五角大楼最新战争机器的副作用表达了深切的忧虑。问题似乎在于人类缺乏对机器人的信任。制造机器人武器系统的工程挑战相对简单,但说服人类相信机器所面临的社会和心理挑战却异常复杂。在高风险、高压力的情况下,比如战斗中,人类对自主系统的信心可能会迅速消失。在2015年的一篇文章中,美海军指挥官格雷格·史密斯坦诚地评估了飞行员对无人机的不信任。他指出,操作员有时会失去与无人机的联系,可能会无意中让它们危险地靠近有人驾驶飞机,这“让飞行员毛骨悚然”。然而,五角大楼的领导人对这些系统近乎迷信,似乎坚定地相信,人类对自主系统缺乏信心的情况可以通过工程解决方案来克服。将机器添加到军事团队的问题不是条令性的或数字上,而是心理上的。这需要重新思考促成士兵与机器信任所需的本能门槛。真正的困难在于超越个人心理和社会障碍,承担算法战带来的风险。要做到这一点,需要在若干个心理和情感领域重塑军事文化……人工智能训练师应该与传统军事领域的专家合作,培养新技术中固有的安全感。通过这种交流,士兵们将培养出与机器之间的类似人与人之间的本能信任。
 
信任工程师开始工作
 
很快,保持戒备的作战人员可能会接受新的训练形式,重点是在机器人和人类之间建立信任。为了增加信任,机器人已经被编程为用更人性化的方式与用户交流。目前正在进行的项目是帮助军用机器人在特定情况下向人类报告它们的不足,并根据机器感知到的用户的情绪状态来改变它们的功能。
在美陆军作战能力发展司令部陆军研究实验室,军事心理学家用了10多年时间进行与机器信任有关的人体实验。在一组测试中,实验人员部署了一个名为“自主小队成员”的小型地面机器人,它可以与步兵进行互动和交流。研究人员改变了“基于情境感知的代理透明度”,即机器人关于其计划、动机和预测结果的自我报告信息。研究发现,当自主的“代理”对其意图更加透明或诚实时,人类对机器人的信任就会增加。美陆军并不是唯一研究人类对机器人信任的军种。美空军研究实验室最近成立了一个专门研究这一课题的小组:人类信任与互动分部,隶属于该实验室位于俄亥俄州赖特-帕特森空军基地的第711人类表现联队。2015年,美空军开始征集“研究如何利用人机团队/信任动态的社会情感因素,并将其注入人机编组”的提议。空军实验室首席工程研究心理学家马克·德雷珀对人机合作的前景持乐观态度:“随着自主性变得更加可信,更加强大,空军可以开始把更多的决策能力交给自主性,而自主性可以在越来越重要的决策层面发挥作用。”
空军研究人员正在尝试剖析人类信任的决定因素。在一个项目中,他们使用所谓的“五大人格特质”—开放性、责任心、外向性、亲和性、神经质,来衡量一个人的性格与其信任倾向之间的关系。在另一项名为“信任机器战警:性别对自主机器人信任的影响”的实验中,空军科学家向男性和女性研究对象展示了一段描绘警卫机器人的视频,以比较他们对机器的信任程度。该机器人配备泰瑟枪,与人互动,最终使用泰瑟枪击倒一人。通过对不同对象的调查研究,科学家发现女性对“机器战警”的信任程度高于男性。对自主系统的信任问题甚至促使美空军首席科学家提出了一些想法,以提高人类对机器的信心,包括更好的机器人礼仪到更像人的机器人等。
相关阅读