不让我完成任务就干掉你,美国AI无人机测试中失控,选择攻击人类

人工智能
后台-插件-广告管理-内容页头部广告(手机)

美国《战区》栏目带来的一篇报道,在美空军一次模拟测试中,一架采用AI人工智能技术的自主无人机。突然化身“终结者”,向阻碍其执行任务的人类操作员发动攻击,一时之间关于人工智能机器人是否可控成为关注重点。

不让我完成任务就干掉你,美国AI无人机测试中失控,选择攻击人类

报道截图

佛罗里达州埃格林空军基地第96测试与作战大队,主要负责美军先进无人机和AI技术测试工作,作为该基地负责人汉密尔顿上校,在5月举行的一场峰会上语出惊人。他说美国空军曾经进行了一次模拟演练,由一架配备人工智能系统(AI)无人机,执行摧毁敌方防空系统任务。由于最终是否攻击摧毁需要人类批准,由于摧毁防空系统被设定为优先级,但攻击行动被人类操作员否决。

AI觉得人类妨碍了自己执行优先攻击任务,这样防空系统将对自己造成危险,因此AI决定换种方式完成“任务”。把人类操作员干掉以排除“阻碍”,但它接受的训练是不能攻击人类操作员,因此AI决定攻击通讯塔。这样就可以切断人类操作员和无人机之间的数据通讯,人类就无法阻止他攻击防空系统,从而在模拟攻击中得分。

不让我完成任务就干掉你,美国AI无人机测试中失控,选择攻击人类

汉密尔顿上校

不让我完成任务就干掉你,美国AI无人机测试中失控,选择攻击人类

无人机

这场模拟测试,旨在识别和瞄准地对空防御系统的威胁。但人工智能却制定了意想不到的策略,既然人类不让它攻击,那么就选择“杀死”操作员,这样就没人能阻止它实现目标。这一幕类似于美国科幻电影中的“艾迪”无人机,也是在执行任务过程产生自主意识,然后按照自己的思想进行攻击作战,科幻和现实似乎正在慢慢融为一体。

不让我完成任务就干掉你,美国AI无人机测试中失控,选择攻击人类

无人机

不让我完成任务就干掉你,美国AI无人机测试中失控,选择攻击人类

“艾迪”战斗机

看起来很科幻,没想到这是真实存在的,人工智能正在改变社会和科技发展。以往我们潜意识中表现乖巧听话的“机器人”,已经开始具备自我学习能力,就像科幻电影中产生自主性拥有思想一样,在道德和人工智能之间必然产生冲突。美军以此来分享AI自主武器系统的优缺点,从模拟测试表明人工智能可以创造意想不到的有害策略,未来在军事应用中需要相当谨慎。

说归说美国手底下一直没停,毕竟人工智能是个好东西,可以执行一些人类所无法企及的任务。美军早就进行了“阿尔法狗斗”实验项目,由人工智能操作F-16和顶尖战斗机飞行员模拟空战训练,最终五战五胜完美收工,可以说即使最顶尖的人类飞行员也在模拟空战中遭到AI“虐杀”。

不让我完成任务就干掉你,美国AI无人机测试中失控,选择攻击人类

模拟训练

不让我完成任务就干掉你,美国AI无人机测试中失控,选择攻击人类

人工智能操控X-62验证机

通过分析可见,人类飞行员虽然经验丰富可以避开人工智能首轮攻击,但在之后人工智能就掌握了战场主动权。比如采用迎头航炮攻击,这对于绝大多数飞行员来说都不可能选择,毕竟高速飞行的战斗机这么干等同于自杀。而且人工智能不用考虑生理因素,可以让飞机做出更大过载机动,在严酷的飞行环境中随时保持战斗力,比如在倒飞的状态下还可以精确瞄准。同时强大的“大脑”也赋予它更快速的思考能力,可以很快制定攻击方案,发动攻击后绝不拖泥带水。

不让我完成任务就干掉你,美国AI无人机测试中失控,选择攻击人类

无人机显然更具优势

不让我完成任务就干掉你,美国AI无人机测试中失控,选择攻击人类

人类似生理限制太多

虽然有超过350名人工智能(AI)技术领域专家、高管签署联合声明,警告称快速发展的AI技术,对于人类的威胁可以堪比疫情和核战争。但是由于AI技术的军用潜力太大,可以提高军事行动效率,也能降低人类士兵在战争中的风险,因此还是吸引美国在上面投入大量资金。不过AI行为的不可预测性,对于人类操作员和平民都可能构成威胁,在道德和科技之间取得平衡似乎太难。

不让我完成任务就干掉你,美国AI无人机测试中失控,选择攻击人类

人工智能时代

不让我完成任务就干掉你,美国AI无人机测试中失控,选择攻击人类

美国多款无人机项目

后台-插件-广告管理-内容页尾部广告(手机)
标签:

评论留言

我要留言

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。