代替人类去“狗斗”——人工智能飞行员的崛起

人工智能
后台-插件-广告管理-内容页头部广告(手机)

本文原载于《兵器》杂志2022年04月刊,本次转载时经重新二次内容完善及编辑、补充整理部分插图,以与同好共同分享。个人认为《兵器》杂志是一本专业、客观的军事杂志,推荐持续订阅,丰富自身的军事及政治知识。在将家中《兵器》数字化保存过程中,转载其上的一些年代比较久远的文章,主要是想让读者以另一种比较独特的视角审视曾经的事物和观点。

编者按:人工智能在军事上的应用已经势不可挡。作为最复杂的作战形式之一,空中“狗斗”一直是精英飞行员的独享领域。人工智能有没有可能在这种战法中取代人类?美国军方的研究表明,希望很大。为此,美国《纽约客》杂志在2022年1月24日发表文章,阐述了美国国防高级研究计划局(DARPA)正在实施的人工智能空中狗斗研究进展,也提出了一些道德上的忧思。

 

人工智能的“狗斗”

2021年5月,一个万里无云的清晨,一架涂着美国空军标志的小飞机从尼亚加拉大瀑布国际机场起飞,飞往安大略湖上空的军事限制空域。这架私人防务承包商搞来的捷克造L-39“信天翁”教练机,在驾驶舱前面的电子设备舱内加装了复杂的机载传感器和计算机,用于记录和处理飞行中的各类数据。

在两个小时的试验中,飞行员绕着安大略湖逆时针转圈。而地面上的工程师,已经对飞机的每一次转弯、每一次俯仰和滚转进行了精心的规划。他们正在按照美国国防部高级研究计划局(以下简称DARPA)授予的合同,尝试一件前所未有的事情:设计一架在无需人类飞行员操作的情况下,能够自主进行近距自由空战——或者称为“狗斗”的飞机。

Calspan公司把这架L-39教练机涂成了美国空军的涂装,摆放在自己公司的机库前。

这次试飞是DARPA“空战演化”项目(缩写为A.C.E)的一部分,而“空战演化”也仅仅是美国国防部为了将人工智能引入未来战场而设立的600多个项目之一。

2021年,五角大楼在人工智能相关技术上投入了近10亿美元。美国海军正在研制可在海上停留数月的无人船,美国陆军则在开发一个无人车家族。而人工智能技术早已在提升美军的后勤供应、情报收集上发挥威力,并广泛应用于单兵可穿戴设备、传感器和辅助机器人等领域,美国军方称之为:战场物联网。

某种意义上说,“算法”早就擅长驾驶飞机了。世界上的第一种自动驾驶仪,在莱特兄弟首次飞行仅仅十年后的1914年问世,它将陀螺仪连接到飞机的操纵面,自动保持飞机的三轴稳定。而目前的一些军事技术,如水下扫雷机器人和激光制导炸弹,在由人工投射之后,也可以自主完成任务。

L-39鼻锥内为了测试人工智能而加装的设备,但没有披露细节。

但是在战场上,却很少有像近距自由空战这样复杂的问题。负责为DARPA改装L-39试验机的卡尔斯潘飞行研究公司副总裁保罗·舍费尔说:“‘狗斗’也许是各种飞行任务中,动态变化最为激烈和复杂的一个场景,至少目前仍旧如此。”

由人工智能驾驶的战斗机也许可以比人类飞行员做出更剧烈的转弯,承受更高的风险,完成更精准的射击。但“空战演化”项目的目标是转变人类飞行员的角色,而不是完全取代他们。

按照DARPA的设想,人工智能将与人类飞行员合作驾驶飞机,即人类飞行员将继续“在回路中”,实时监控人工智能正在做什么,并在必要时进行干预。按照DARPA的战略技术办公室的说法,具备自主空战能力的战斗机将使飞行员的角色转变为“战场管理者”,指挥无人机编队作战,“就像足球教练那样,选择球员,布置阵型,然后指挥他们在球场上进行比赛”。

新美国安全中心的国防项目主管斯塔西一佩蒂约恩说,“空战演化”项目是美国武装力量实现“战斗单位更小、更便宜”总体目标的一部分。换句话说,就是让美军在作战中投入更少的人员和更多可消耗的装备,DARPA称其为“马赛克战”。具体到空战场景下,佩蒂乔恩说,“一些更小的自主作战飞机可以用意想不到的方式组成编队,以其集群行为的复杂性压倒对手。如果它们中的任何一架被击落,那也不是什么大问题”。

目前为止,这架L-39试验机已在安大略湖上空进行了20架次试飞,每次飞行都给工程师和计算机科学家提供了他们需要的数据,以建立其在各种条件下的飞行动力学模型。像自动驾驶汽车一样,自动飞行的飞机也要通过传感器来感知外部世界和其设定的飞行计划之间的差异。但是,能实现自主“狗斗”的算法还需要同时考虑到环境和飞机,一架飞机在不同的高度和姿态,在热天和冷天,或者如果它挂载了副油箱或导弹,其飞行的方式都是不同的。

L-39的后座原本是教官,但这张图像可能说明,后座已经取消,改成了设备舱。

担任“空战演化”项目科学顾问的电气工程师菲尔·朱解释说:“在人们熟悉的大多数情况中,飞机在天上都是保持水平直线飞行的。但‘狗斗’很不一样,你必须弄清楚,如果自己处于30度的滚转角,向上20度的俯仰角,需要怎么操纵驾驶杆才能达到40度的滚转角,同时增大10度的俯仰角?”而且,由于飞行是三维的,速度同样重要。“如果飞机飞得很慢时,拉出一定的杆量,飞机会以一种方式转弯。而如果飞机飞得非常快,还以同样的方式移动驾驶杆,飞机就会给出一个非常不同的反应。”

如果“空战演化”项目按计划顺利进行,那么2024年将有4架由人工智能操纵的L-39飞机在安大略湖的天空中进行一场实际的近距自由空战对抗。为实现这一目标,DARPA已经召集了三十几个学术研究机构和私营公司,每家都在研究两个课题中的一个:一、如何实现飞机自主飞行和战斗;二、如何让人类飞行员足够信任人工智能并愿意使用它。曾在奥巴马政府担任国防部副部长,并致力于推动五角大楼追赶下一代技术的罗伯特·沃克告诉作者:“如果没有足够的信任,人类飞行员只会死死盯着人工智能的所作所为,然后说,‘啊,我必须接管飞机。’”

DAFPA“空战演化”项目的路线图

没有人能够保证“空战演化”项目一定会取得成功,DARPA项目有着一定的试验性质,通常还会有3到5年的研发周期限制。舍费尔告诉作者;“我们正处于技术成熟过程‘爬、走、跑’中典型的‘走’阶段。”

话虽如此,但愈发清楚的现实是:未来的某一天,初出茅庐的菜鸟飞行员,将惊诧于他的战斗机是如何自己掌握了如查克·耶格尔(二战美军双料王牌,首个驾机突破音障的飞行员)般出色的飞行技术。而他们得到的答案将是:曾有一架由退役飞行员驾驶的捷克产二手教练机,在安大略湖上空书写了人类战斗机飞行员的墓志铭。

阿尔法“狗斗”测试赛

作为自主“狗斗”算法研发课题的一部分,DARPA选择了八家软件技术公司参加阿尔法“狗斗”测试赛。这场持续了近一年的人工智能竞赛,在2020年8月公开举行的三天决赛期间达到高潮。决赛的奖品是丹·拉瓦塞克上校戴过的飞行头盔。他在去年返回空军任职之前一直在DARPA负责该项目。决赛原计划在内华达州内利斯空军基地附近面向现场观众举行,但由于新冠疫情的影响,改为了在线直播,由约翰·霍普金斯大学应用物理实验室主办,并通过名为DARPAtv的YouTube频道播出。F-16飞行员贾斯汀·莫克进行了比赛解说。在直播中,他告诉频道里的五千名观众,胜负规则很简单:“猎杀和生存”。

阿尔法狗斗赛通过网络视频方式直播,负责解说的是一位F-16飞行员,决赛的奖品是一个飞行头盔。

 

这场人工智能竞赛的线下场地并不大

参赛队伍开发的“狗斗”算法被称为空战智能体,每个团队开发智能体的技术路线都不尽相同。EpiSci是一家位于加州Poway的防务承包商,他们在退役空军试飞员查理斯·金泰尔的领导下开展工作。EpiSci将问题分解成多个部分,并利用金泰尔的飞行专长来实现“狗斗”的每个步骤。“我们从问题的最底层开始,”金泰尔告诉作者,“从人类飞行员是如何控制飞机的,到飞行员如何指挥飞机左转右转,一直到‘狗斗’中应该使用什么战术?”

位于加利福尼亚州帕西菲卡的PhysicsAI公司派出了一个四人团队参赛,他们对空战几乎一无所知。PhysicsAI使用了一种神经网络算法,使智能体能够学习并模仿“狗斗”获胜的样本,并从数学上逼近能够获得更好结果的最大概率。“我们要解决的问题,就像在打篮球的同时下国际象棋,”PhysicsAI的主要研究人员约翰-皮埃尔说:“在投篮的瞬间还需要作出下一步的决策,而且它还得以人类飞行员能够理解的方式完成。”

比赛中,双方智能体在仿真环境下,控制着用不同颜色图标表示的战斗机,在屏幕上移动并画出飞行轨迹,用这种方式模拟F-16的飞行动态。这并不是电影《壮志凌云》,但这些算法正在做着一年前还完全不可能实现的事情:在动态交互中实时调整战术。对于这场智能体的博弈,莫克将它比作“两个困在电话亭中之人展开的白刃战”。

洛一马公司的AI以大比分战胜了PhysicsAI公司的AI,双方都模拟使用F-16战斗机.

比赛第三天的决胜局,来自弗吉尼亚州名不见经传的小公司(当时公司仅25人)苍鹭系统所开发的智能体falco,与世界最大军火商洛克希德-马丁公司的智能体进行了较量。这样一场看似实力悬殊的对决,不禁使旁观者联想起了大卫和歌利亚之战——不过这个“大卫”在过去一年中积累的训练样本数量,已经相当于一名人类飞行员昼夜不停的进行了31年的“狗斗”训练。

经过几轮激烈的厮杀,苍鹭系统出人意料地大比分战胜了洛克希德-马丁。然而falco还面临一项终极挑战:与一名经验丰富的F-16人类飞行员一决高下。苍鹭系统是八支参赛队中唯一一个完全不依赖先验知识,仅应用深度强化学习解决“狗斗”问题的队伍,在赛后采访中,其主要开发者透露,falco的训练样本量达到了40亿局之多。

在后续比赛中,洛-马公司竟然败给了名不见经传的苍鹭公司。

显示器上给出的,是蓝方飞机的瞬时速度高度参数。

这位飞行员身穿橄榄绿色的飞行服,坐在一张电竞椅上,而他的面容隐藏在VR头显之下。对于他的身份,我们知道的只有他的呼号:Banger。他的真实身份出于安全理由而不能透露。他事先与应用物理实验室的团队一道进行了训练,适应了如何使用PC飞行摇杆在虚拟环境下操纵飞机,并使用VR头显来观察并追踪对手的位置。

在右下角的分屏上,观众可以看到Banger从虚拟驾驶舱看到的图像。左边的分屏显示了交战态势的可视化效果,两架飞机——黄色的是Banger,绿色的是智能体falco——在争夺优势位置。在持续了大约一分钟的第一局对抗中,双方都极具侵略性地操纵自己的飞机。Banger一路下降到了一万英尺高度(约3000米)试图摆脱Al的进攻。而falco则紧随其后,在一串精准的射击之后,Banger输掉了第一局……

代号Bengm的人类飞行员与苍鹭公司的A对战

最终,人类飞行员没能在五局对抗中获得哪怕一次胜利。Banger说:“我认为在过去几年中人工智能技术已经证明,它能够在“干净”的环境中比人类思考得更快,反应得更快。”Banger还暗示,经过长期训练的人类飞行员会避免一些危险情况的发生,比如飞得离敌机太近,或者以超出身体承受能力的载荷机动,而人工智能并不会受到同样的制约。他说:“(即使在仿真环境中)我也不愿意把飞机飞到一个可能会与目标相撞的位置上,但人工智能会这么干。”

对抗结果是人类飞行员被打败多场,一次都没赢过。

直播解说中,莫克似乎对这个结果很满意:“大家现在可以看着这个结果,然后说,‘好吧,人工智能赢了五局,而我们人类——0。’”他同时告诉观众:“在战斗机飞行员的世界里,我们相信一切管用的东西。这个限定边界的特定场景中,人工智能是管用的。”(YouTube上阿尔法“狗斗”测试赛的视频后来获得了50万次播放量。)

苍鹭系统的老板巴雷特·达西向作者透露,该公司已经用falco来驾驶现实世界中的无人机,并完成了74次试飞,没有一次坠机。不过目前我们还不清楚,人工智能将如何应对现实世界中无限的不确定性。人类的思维过程确实比计算机要慢,但人类具有认知的灵活性,可以适应各种预料之外的情况。而人工智能到目前为止,还没有这个能力。

安娜·斯金纳是一位从事人为因素领域研究的心理学家,也是“空战演化”项目的另一位科学顾问。她说:“人类能够借鉴过去的经验,在面对不确定性时采取合理的行动。特别是在战场上,不确定性是无处不在的。”

飞行员信任人工智能吗?

2021年5月初,有记者参观了爱荷华大学的操作人员效能实验室(以下简称O.P.L),“空战演化”项目的成员们正聚集在那里进行一次演示。O.P.L由汤姆·施奈尔创立。他出生于瑞士,是爱荷华大学工业和系统工程专业的教授。在业余时间,施奈尔喜欢驾驶特技飞机在爱荷华州的玉米地上空上下翻飞,然而他最初的研究方向却是地面交通运输。

汤姆·施奈尔亲自驾驶飞机升空,体验AI的飞行能力。

上世纪90年代末,一家豪华汽车品牌(施奈尔不透露是哪家公司)要求他设计一种实验方法,来测量人们对所驾驶汽车的喜爱程度。施奈尔在司机的脸上布置了传感器,以检测嘴和眼睛周围肌肉的微小运动,这可能表示他们在微笑或皱眉,同时安装了贴片来监测他们的心电图。谈到他的这个早期客户时,施奈尔说:“我告诉他们,如果打算让我做这项工作,必须送一辆有足够驾驶乐趣的车子过来。而他们真的送了。”

施奈尔很快意识到,每种传感器都有自己专用的数据采集系统,这使得他几乎不可能同时分析多路传感器的数据。他着手建立了一个通用框架,命名为认知评估工具集,并开始收集各类机械操作人员工作时的生理数据。他说:“他们可能是火车司机,或直升机飞行员,或驾驶汽车的人。”上文提到面部传感器提供了一种类型的数据。而一个分析皮肤电化学反应的仪器则能够测出受试者的出汗量。而另一个传感器记录了血氧饱和度,作为认知负荷的表征。

O.P.L的一项重要工作,就是测试飞行员对A的信任程度如何。

科研人员正在为后座飞行员安装体征传感器,以记录生理变化。

2004年,施奈尔说服了他的系主任购买了O.P.L的第一架飞机,一架单引擎的比奇“富豪”。在几年后,他的实验室拥有了第一架喷气机,商业航空公司和空军开始雇用他对飞行员进行研究。施奈尔说:“我们做了很多关于空间定向障碍的研究工作。这包括让飞行员在机动飞行时闭上眼睛,然后让他们再次睁眼并尝试保持平飞。”到2019年DARPA正式发出“空战演化”项目的招标文件时,施奈尔的实验室已经在捕捉飞行人员生理反应方面,积累了超过十年的经验。

O.P.L的一架L-29“海豚”教练机正在试飞。

事实证明,说服飞行员交出飞机的控制权,可能比开发出能够“狗斗”的人工智能算法要更难实现。“这可能是我们面临的最重要的挑战”。“空战演化”的现任项目经理瑞安一赫夫朗告诉作者。赫夫朗中校今年38岁,拥有计算机科学博士学位。在2021年来到DARPA之前,他是空军试飞员学校的一名教官。

赫夫朗提到了“Auto-GCAS”的例子,这是一种自动预防飞机撞地的系统。如果飞机有即将撞地的风险,它就会从飞行员那里夺过控制权将飞机拉起。在科研试飞阶段,Auto-GCAS曾出现过一种无缘无故突然将飞机拉起的缺陷——赫夫朗称之为“讨厌到飞起”。虽然该系统在定型之后至少挽救了11条生命,但这些早期试飞中暴露过的缺陷,却使试飞员们多年来一直对它心怀芥蒂。

中佛罗里达大学的心理学教授彼得-汉考克,长期研究人群信任度对技术成果应用的影响。他告诉作者:“军队里有一句话,信任只能一勺一勺的获取,但会一桶一桶的丧失。”而这并非战场上才有的问题。在美国汽车协会进行的最新调查中,约有百分之八十的受访者表示,他们对汽车实现完全自动驾驶的想法不以为然。“

很多司机说,他们希望自动驾驶系统能比目前表现的更好,然后才能信任完全自动驾驶。”美国汽车协会的汽车工程专业主任格雷格·布兰农告诉作者:“尽管近年来自动驾驶技术已经取得了很大的进步,但持不信任态度的人群比例(相比几年前)并没有明显的变化,这个结果相当令人震惊。”

心理学家通常采用问卷调查的方式来评估信任程度的高低。安娜-斯金纳说:“在此之前,并没有一个能够评估‘信任程度’的客观方法。”而这一次,DARPA聘用了位于安阿伯的人工智能科技公司SoarTech来建立一个“信任量化模型”,旨在利用O.P.L认知评估工具集的采集的“硬数据”,来验证主观评价结果的可靠性。最大限度地汇聚当前最好的研究资源,来解答这些非常困难的问题。施奈尔表示:“DARPA要解决的实际上是一个长久以来困扰着整个航空界的问题,飞行员真的信任计算机吗?”

O.P.L在爱荷华机场拥有一个机库,里面堆满了施奈尔购买和改装的二手飞机:两架L-29“海豚”教练机,被涂成光亮的鹰眼黄;一架L-39“信天翁”;一架苏联米-2直升机,购买它花费了相当于一辆凯迪拉克“凯雷德”的价钱。施奈尔还在直升机上加装了自己开发的彩色夜视系统。而在机库的尽头是一台波音737的飞行模拟器,其大小相当于一间学生公寓。

O.P.L的机库,中间是一架比较少见的米-2直升机,它的操控系统也进行了改装。

一名借调到O.P.L的空中国民警卫队飞行员,俯身钻进了另一台飞行模拟器,这是一个被施奈尔称为“浴缸”的长方形金属盒。施奈尔给他接上了心电图导线,以便收集一些基线数据。在那天早上的任务简报之前,这名飞行员只知道他将参加一个DARPA的研究项目。即使是现在,当他在驾驶舱里调整VR头显并摆弄着模拟F-16的HOTAS摇杆时,他所知晓也仅仅是人工智能将负责驾驶飞机,而他的任务则是在座舱内的显示器上玩一个看起来颇为简陋的电子游戏(“空战演化”项目的另一个团队正在开发一个更复杂的版本)。

AI飞行试验的操作界面,这副画面上显示的状态,是AI已经断开,正在由人工操作。

这是由AI来控制飞机的状态,与它对抗的似乎是一架F-35战机.

不过这个看似简陋的游戏,恰恰模拟了未来飞行员将要承担的战场管理任务。参与实验的飞行员指挥8架蓝色飞机,必须击落8架红色敌机才能获得游戏胜利。在他VR头显内的眼动追踪器,会测量他在何时以及花费了多少时间,抬头关注了人工智能正在做什么。这被认为是一种不信任的表现。飞行员所不知道的是,游戏中预设的这些小规模交战场景,有些是为了让他能够获胜,另一些则是刻意将他和飞机置于危险之中。一旦他觉得人工智能要控制飞机做一些危险的举动,可以选择通过喊“中止”(原文Paddling off)来要求停止战斗——这也将表明对人工智能缺乏信任。

狗斗模拟场景,AI敢于操纵飞机做出非常惊险的接近动作,

最终,实验结果所指出的方向是,需要告知飞行员,人工智能下一步打算干什么,才能建立足够的信任。SoarTech公司的资深科学家格伦·泰勒告诉作者:“我们应该在系统中给出视觉以及其他形式的提示,使得飞行员知道人工智能正在做什么,并给他们充足的信息和时间,来决定是否信任人工智能的决策。”研究人员将这种关系称为“经过校准的信任”。“空战演化”项目的科学顾问之一菲尔-朱表示:“如果我们能告诉飞行员,人工智能在未来四秒内要做什么,那就已经是足够长的时间了。”

这副画面上的飞机已经由AI控制,飞行员不到危急时刻不会接管飞机。

信任之所以至关重要的另一个原因,是当飞机以每小时约800千米高速运动时,人工智能算法很难确保飞行员始终能够“在环路中”。中佛罗里达大学的汉考克教授将这种反应时间上的差异,称为“时间不协调”。他将汽车安全气囊作为类比对象,安全气囊能在几毫秒内展开,这远低于人类感知的阈值。他说:“如果你非要把汽车驾驶员的意识,加入在安全气囊的控制回路里,就会让安全气囊完全失去它的意义,因为它发挥作用的前提就是能在碰撞瞬间充满气。”

“浴缸”外的屏幕上,同步显示着飞行员从VR头显中看到的场景。当他把头转向右边时,一个机翼出现在视野中:当他向下看时,他可以看到农田;而驾驶舱前方的雷达屏幕一直在追踪敌机。在第一次模拟对抗中,对手很快取得了优势,绕到了飞行员所在飞机的后方,准备射击。“中止!”飞行员喊道,于是对抗结束,程序重置。此时施奈尔的一名研究生从三开始倒数,然后喊“Hack”,开始了下一场对抗。

AI测试飞行员的头盔要比一般的飞行头盔复杂,具备VR显示能力。

40分钟后,当飞行员钻出模拟器时,迎接他的是与SoarTech公司合作的研究人员凯瑟琳·伍德鲁夫。伍德鲁夫向飞行员问起了一个细节,在某一轮实验中,尽管并没有面临十分紧迫的威胁,但他还是中止了战斗。“我只有两个选择。”飞行员回答,“要么坐观其变,或者中止战斗。”停顿了一下,他又补充道:“我评估了一下态势,那架敌机已经开始转向我。于是我选择中止。”

伍德鲁夫告诉作者,在大多数情况下,参与实验的飞行员在人工智能决策正确时选择了信任它,在它决策错误时选择了接管操作。但也有例外:一位最近在飞行事故中跳伞生还的飞行员,对人工智能表现出了强烈的怀疑态度。尽管那位30岁的飞行员同样觉得空战智能体“很酷”,但他甚至在明明有可能获得一个很好的攻击位置时,也喊了“中止”。“我想搞清楚,自己对人工智能信任的边界在哪儿。”他告诉伍德鲁夫,“什么样的选择是太保守的,什么样的选择又会害死我自己。我需要找到那个微妙的平衡点。”

施奈尔的那位研究生是现役军人,因此不能透露姓名。他讲评说:“你绝对是‘需要改变观念的那部分人’的完美例子。你完全违背了实验的初衷。”他告诉那名飞行员,“尽管人工智能表现得很好,并没有让你丧命,你却决定不让人工智能完成它该做的事情。如果我们需要飞行员在三十年后成为‘战场管理者’,我们就必须把这种行为反转过来。”

该不该“阻止杀戮机器人”

2017年,专注于“促进人工智能公益性”的民间组织“未来生活研究所”(马斯克也是其顾问委员会成员)发布了一部名为《杀戮机器人》的宣传短片。这部短片虚构了在未来世界中,由巴掌大小、携带炸药的四旋翼无人机组成的蜂群,被用于进行校园恐怖袭击、暗杀政治人物等各种黑色行动的场景。短片中一个“乔布斯式”的演员,在产品发布会上鼓噪着台下的观众:“核武器已经过时了。用‘杀人蜂’干掉你的敌人,无需承担任何风险。”

电影《杀我机器人》中的杀人无人机,以及它从C-130运输机上抛撒的场景。这种小无人机可以杀伤人类。

 

这段短片在YouTube上积累了300多万次的播放量。在视频的结尾,伯克利大学的计算机科学家斯图尔特-拉塞尔在镜头前发出警告:“允许机器来决定杀死人类,将摧毁我们的安全和自由。”拉塞尔与包括马斯克、斯蒂芬-霍金和诺姆-乔姆斯基在内的一批知名学者和科技公司高管,联署了一封公开信,呼吁禁止“不受人类意志控制的自主进攻性武器”。

然而,人工智能技术已经加剧了全球军备竞赛。2020年,全球用于军事人工智能的支出估计已突破60亿美元,预计到2025年还将翻倍。俄罗斯正在开发无人战斗车辆,包括了无人坦克和侦察车。有报道称,去年利比亚冲突中使用的一种自主无人机,可能已经具备了“实时图像处理”能力,可以识别和猎杀敌方士兵。前国防部副部长罗伯特·沃克表示,情报显示东亚某大国已经将退役的战斗机改装成了自杀式自主无人机,还可以组成蜂群一起行动。他说:“这是一种全新的武器,非常难以防御。”

美国同样在测试蜂群无人机。在去年4月的一次实验中,蜂群无人机在加利福尼亚近海攻击了一艘作为目标的水面舰艇。而美国空军意图实现有人/无人机协同作战的Skyborg项目,在10月份测试中实现了两架自主控制的无人机与F-35有人机编队飞行。Skyborg项目的目标,是让无人机能够探测地面和空中的威胁,识别“正确”的任务目标,用武器瞄准目标并构成最优的攻击条件。

美国海军和陆军都采购了“郊狼”无人机,并用它们进行了蜂群攻击的试验。

美国海军和陆军都采购了“郊狼”无人机,并用它们进行了蜂群攻击的试验。

空军声称,“实际发起攻击”的最终决定权仍将掌握在人类飞行员手中。但是,2020年美国空军首席科学家理查德·约瑟夫警告说:“我们仍有一些悬而未决的问题需要答案。对于一种具备致命杀伤性的武器系统,尤其是具有高速机动能力的武器,我们究竟希望授予它们多少自主权。”

2021年4月发表的一篇文章中,罗伯特·沃克认为,人工智能技术“有助于减少造成误击事件的最主要原因:目标错误识别”。尽管美国军方反复承诺,将持续改进技术来提高目标识别的准确性,然而结果并不如人意。2003年伊拉克战争期间,具备初步自主能力的“爱国者”地空导弹系统,意外击落了一架英国战斗机,造成两名飞行员死亡。还有一架美国海军飞机也遭此厄运,飞行员同样未能生还。五角大楼的调查报告认为,“爱国者”的操作员授予了导弹系统过高的自主权。《泰晤士报》在对近期解密的1300份西亚地区冲突中平民伤亡的报告进行分析后,将美国主导的这场旷日持久的无人机战争概括为“恰恰是美国政府所幻想的全能无人机+精确制导炸弹战争形态的反面教材”。

2003年伊拉克战争期间,因为自主识别能力不足,美国的“爱国者”防空导弹击落了英国战机,导致飞行员死亡。

 

新美国安全中心的佩蒂约恩表示,美国军方目前正在开发人工智能系统帮助完成目标识别。她说:“这对人工智能来说也绝非易事,甚至可以说非常困难——尤其是当你要从几千甚至上万米的高空中识别目标时。”2018年,麻省理工学院和斯坦福大学的研究人员发现,三个流行的人工智能人脸识别算法并不能准确识别出非洲裔女性的性别。两年后,一份国会研究报告指出,“(人工智能偏见)可能对人工智能在军事领域的应用产生重大影响,特别是如果这种偏见没有被发现,并被集成进了具有致命杀伤力的系统。”

“阻止杀戮机器人”是由180多个民间组织组成的一个联盟,致力于敦促各国立法限制致命性人工智能武器的使用,而美国并不在已通过相关法律的近七十个国家之列。“这不仅仅是禁止某种特定的武器,就像我们禁止地雷或化学武器一样。”哈佛大学法学院讲师、民间组织军控部门的高级研究员邦尼一多切蒂认为,“这是在努力阻止这项技术的发展,因为它可能以一种非常可怕的方式改变战争的形态。”

美国空军研制中的“女武神”已经能够和F-35,F-22伴飞,但尚未具备空战能力。

美国国防部于2012年阐述了其在致命性人工智能武器问题上的立场,要求人类决策者必须以“恰当的程度”介入到整个决策链路中。兰德公司的资深防务行业分析师大卫·奥赫曼克告诉作者,正是他在五角大楼任职时所在的办公室,负责起草了2012年那份指南。“事实上,它并没有禁止人工智能武器的发展。”他补充说,“它只是制定了一些(对人工智能)进行审核和安控的流程。指挥人员必须能够对决策过程施加干预,既要能够启动人工智能系统,也得在必要时能够关闭它。”

奥赫曼克认为发展人工智能武器是一种重要的威慑手段,尤其是针对未来可能爆发的大规模冲突——如东欧和亚太地区。“各种形式的军事智能化,能否提高我们应对大规模军事冲突的把握?”他说,“这个问题的答案是非常肯定的。”

2021年春天,当L-39在安大略湖上空试飞时,“空战演化”项目的科学家和工程师们聚集在尼亚加拉大瀑布,举行他们的季度例会。在自主“狗斗”算法竞赛小组的会议上,EpiSci的克里斯·根蒂尔强调:“这个项目并不是在创造致命的人工智能武器,我们在做的是创造工具,帮助飞行员能够更有效地进行决策。”但随着人工智能技术将决策的速度不断加快,最终我们仍然会面临“为什么还要在驾驶舱里放个人”的问题。“五角大楼当然会告诉你,他们不会采纳完全自主的系统。”佩蒂约恩说,“但我很难想象,当一切都在围绕‘比对手更快做出决策’这个大前提展开的时候,人类还能如何真正存在于决策链之中。”

 

信任度量化实验还在继续

2021年9月下旬,有记者在O.P.L目击了新一轮的信任度量化实验。一位经验丰富的老飞行员在L-29的座舱里待了差不多一整天。施奈尔教授把这架飞机也改造成了一台飞行模拟器。这位老飞行员同样戴着VR头显,当人工智能在仿真环境下操纵飞机进行一系列对抗时,他依旧负责完成战场管理的任务。

与2021年春天的那位年轻飞行员一样,老飞也被要求在实验中对人工智能的信任度进行主观评价,并同步测量他的生理反应和飞行数据。不过这一次,他在实验中的要遭遇的“敌机”不再是预先写好的脚本,而是经历了阿尔法“狗斗”测试赛厮杀的三位幸存者:由苍鹭系统、PhysicsAI和EpiSci开发的空战智能体。

在那一天实验的末尾,实验方法也再次做出了调整,现在允许飞行员在对抗过程中从人工智能那里接过控制权,人工操纵飞机,然后在飞行员认为适当的时候,再将控制权交给人工智能。据SoarTech公司的高级科学家劳伦·莱因曼·琼斯说,研究人员的预期是,如果飞行员在第一局对抗中输了,就需要再重复打好几局才能恢复对人工智能的信任。但是,如果他一上来就赢了一局,他对人工智能的信任将延续到随后的好几局中。然后,如果他输掉了最后一局对抗,信任依旧会下降,不过减少的程度较小——失去的是一杯而不再是一桶。

飞行员对AI的信任程度并非一成不变,而是随着AI动作的激烈程度而起伏。

飞机旁边摆了四台笔记本电脑,其中一台正显示着飞行员在VR头显中看到的场景,另一台则记录着他的生理反应。这些生理反应的数据作为几种信任度的原始表征,用不同颜色的曲线显示出来。莱纳曼·琼斯指着一条棕色的曲线解释说,这就是信任量化模型的粗略计算值。而伍德鲁夫坐在一旁,腿上放着一台笔记本,手里拿着一个录音笔。每隔一分钟左右,她就会要求飞行员评价自己对人工智能的信任度。几乎无一例外,他表示信任度很高。

人工智能模拟二对二“狗斗”的场景,双方不分胜负。

但在实验后的讲评分析中,这位飞行员却表达了一些对人工智能的失望。在其中一局对抗中,他的飞机和敌机互相追逐,在屏幕上看起来就像水池子里面的水在绕着排水口打转。飞行员告诉伍德鲁夫,尽管他选择了让人工智能继续战斗下去,但他知道这样做并不能很快获得机会干掉对手。在现实空战中,如果一直这样蒙头转圈,要么会很快没油,要么就会再冒出一架敌机从屁股后面干掉自己。

在实际的战斗中,他愿意选择冒更大的风险,以争取更好的进攻机会。这里描述的是“狗斗”中双环态势下的情况,由于双方只能依靠持续转弯角速度上的差异积累优势,所以双环均势难以打破,先选择执行异面机动或是改单环则有一定的风险。“在我看来,人工智能应该比我要聪明得多。”他说,“所以如果人类观察座舱外面的态势,认为明明可以获得一些优势,而人工智能却没有去做,我显然会开始追问,这是为什么。”

阿尔法“狗斗”测试赛中,一个双方进入“双环”态势的例子,

飞行员的这些批评,反映出了空战智能体目前仍然不够成熟,如果它们要强大到足够对付现实世界中的对手,还需要更多的训练。但这也不禁让人想起贾斯汀·莫克一年前在阿尔法“狗斗”测试赛直播中所说的话:战斗机飞行员只相信管用的东西。

阿尔法“狗斗”测试赛后,各参赛团队一直在开发和测试能够同时对付两架敌机的智能体,这是一项复杂得多的任务。他们也开始开发工具,推进这些智能体从虚拟世界向真实世界的迁移。第一步是将L-39飞机的飞行动力学模型,整合到空战智能体的仿真训练环境中去,并先在小型无人机上进行试飞验证。在接下来的几个月里,则会将智能体迁移到空中模拟器上(例如变稳试验机),让飞行员在空中体验真实的重力加速度,看看这会让飞行员对人工智能的信任程度发生什么样的变化。“空战演化”项目经理瑞安·赫夫朗说,“在飞行试验行业里流行着一句话:所有的数学模型都是错的,不过有些模型是有用的。所以我们必须找到那些有用的部分。”

施奈尔谈起“空战演化”项目的这些进展时说:“在虚拟世界中每个人都是英雄。在O.P.L的这个机库里,许多现实风险很容易被忽视。没有人会因为一架虚拟世界中飞机的坠毁而受伤或死亡。要真正触发我们正在研究的这个信任方程式,必须有另一块金属向你袭来。”

美国空军“忠诚僚机”的梦想,就是用AI无人机代替有人飞机去执行危险任务,包括“狗斗”。

后台-插件-广告管理-内容页尾部广告(手机)
标签:

评论留言

我要留言

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。