您的位置:bob体育官方平台 > 古今纵横 > 美国正打造人工智能,美方直言AI战争不可避免

美国正打造人工智能,美方直言AI战争不可避免

2020-02-10 06:37

图片 1

伴随着人工智能及相关技术的持续快速发展,武器装备也逐渐驶入了智能化发展的“快车道”,人工智能早已悄然渗透进军事斗争博弈的核心领域。透过美军各类人工智能发展规划以及形形色色的人工智能武器装备研究项目,我们不难发现,美军正试图打造出现代版的人工智能“战场终结者”。

人工智能(AI)技术是否应该用于战争?机器人可否被授权杀人?这是国外科技学术界反复争议的热门话题。美国《华尔街日报》29日的一篇报道提出与科学家们完全相反的看法,再一次引起人们对军用人工智能技术乃至智能化战争的关注和担忧。

在是否将射杀权交给智能机器人问题上,关键不在“能不能”,而在“该不该”。

近年来,伴随人工智能技术的快速发展,武器装备研发也驶入了智能化发展的快车道。人工智能在武器装备上的广泛应用,不但能适应“快速、精确、高效”的作战需求,还能显著提升武器装备的制导能力、毁伤效果和反应速度,得到广泛关注。然而,当具备高度智能、“会思考”的武器系统真正走上战场,汹涌而来的人工智能武器化究竟是福还是祸?日前,科技巨头谷歌公司正式宣布,将中断与美国军方关于使用人工智能分析无人机视频的合作,并承诺不会将人工智能技术用于武器开发。不过,谷歌公司表示还将继续推动人工智能在网络安全等军事领域的应用。一场围绕人工智能武器化的思辨,目前只是刚刚开始。

激烈角逐的军事科技最前沿

人工智能在军事领域的应用,除了能适应现代战争“快速、精确、高效”的作战需求外,还实现了对目标的智能探测、跟踪和毁伤,将显著提升武器装备的制导能力、命中精度、毁伤效果和反应速度。西方军事强国目前已经将人工智能视作是“改变战争游戏规则”的颠覆性技术,纷纷把人工智能作为武器装备现代化的优先发展方向。这也难怪,俄罗斯总统普京就曾宣称,谁在人工智能领域取得主导地位,谁就可能统治世界。

图片 2

美国正打造人工智能“终结者”

在当今军事科技激烈角逐的最前沿,美国自然不甘落后。早在2015年12月,伴随着“第三次抵消战略”的提出,美国国防部就围绕智能化和自主化提出了五大关键技术领域,进一步推动了人工智能领域军事应用的快速发展。近年来,美国还专门发布了《为人工智能的未来做好准备》和《国家人工智能研究与发展战略规划》两份报告,事实上已经将人工智能置于维持其全球军事大国地位的科技战略核心。

2019年2月11日,美国总统特朗普签署行政命令,正式启动了“美国人工智能计划”。2月12日,美国国防部发布了《人工智能战略概要:利用人工智能促进安全与繁荣》报告,明确表示人工智能是保持美国军事优势的关键,详细分析了美军在人工智能领域面临的战略形势以及借助人工智能加快提升美军战力的途径和方法,并进一步阐述了美国国防部对于人工智能的战略定位、战略部署及重点领域。事实上,早在2018年6月,美国国防部就专门设立了联合人工智能中心,专门用于指导美军在人工智能领域的技术研发,推进人工智能政策制定、数据框架、通用标准、人才队伍建设以及安全防控等领域的多边协调,相当于美军在人工智能领域专门设立的“神经中枢”。

近年来,美军已经在人工智能领域写下了浓墨重彩的篇章。单从资金投入看,美国国防高级研究计划局在2018年9月宣布,将在未来5年投入20亿美元用于人工智能武器研究,旨在推出一款更可靠、更能让军事指挥官接受的人工智能军事应用系统。

目前,美国、俄罗斯等传统军事强国都把军用人工智能作为“改变游戏规则”的颠覆性技术加以研究,美国国防部明确把人工智能作为“第三次抵消战略”的重要技术支柱,旨在进一步打造先进智能化作战体系,积极抢占未来军事斗争制高点。此外,在总金额高达7160亿美元的《2019财年国防授权法案》中,也处处可见人工智能的身影,恰好从一定程度上折射出美军在人工智能领域的急切发展动向。《2019财年国防授权法案》明确了陆海空等部门的多个人工智能研发项目,资助金额更是高达数亿美元。

图片 3

实现完美后空翻的机器人阿特拉斯

正是在美军的“重赏”之下,“未来战术无人飞行系统”“无人海下核心技术”“空军人工智能与非作战支持行动研究”“对抗环境下的目标识别与自适应”等项目得到重点研究,人工智能能力建设得到快速发展。如今,美军已经开始使用人工智能算法分析整理极端组织的大量情报数据,美国国防高级研究计划局还积极探索利用人工智能提前预测战场态势变化,为指挥员计划决策提供重要辅助,或将为破解战场“数据迷雾”提供有力手段。

杀戮还是仁慈?

近日,来自30个国家和地区的50多名人工智能和机器人专家称,由于韩国科学技术院大学与军工企业韩华Systems合作研发的自主武器,可在无人控制的情况下搜索并消除目标,如果研发成功,可能使战争恶化并造成无法挽回的后果。科学家们表示:韩方如果不停止此项研发,即与之断绝任何合作。4月,联合国《特定常规武器公约》专家小组在日内瓦召开会议,专项讨论杀人机器人可能带来的影响,涉及韩国科学技术院大学计划开发的杀人机器人。

“终结者末日”到来——

机甲战士的“智慧之心”

还记得那个曾实现完美后空翻的机器人阿特拉斯吗?要完成这样一个动作,需要人工智能算法为机体各项参数分析和运动控制提供有力支撑。近年来,人们不断尝试开发出具有各种战场“特异功能”的“机甲战士”,人工智能的出现恰好可以为其装载上一枚“智慧之心”。

以美国海军陆战队正在测试的模块化先进武装机器人系统为例,就是一款可以借助人工智能来控制使用武器的作战机器人。美军目前研制的人工智能系统阿尔法,也曾在飞行模拟对抗比赛中小试牛刀,其与资深飞行员的空中“搏杀”最终以阿尔法不败而完美收官。目前,美军已经制定了面向2040年的《无人化作战平台发展路线图》,将大幅提升机器人在美军兵力部署中所占的比重,未来还将进一步推动人工智能在无人作战平台中的发展运用。我们可以想象,伴随着未来强人工智能逐步发展成熟,智能化感知与信息处理、智能化指挥控制辅助决策、无人军用平台及军用机器人、单兵作战智能辅助系统等领域或将发生革命性变革,势必推动着智能化战争时代的加速到来。

图片 4

为“小精灵”与载机对接的风洞试验制作的比例模型

事实上,人工智能已经在无人作战平台上“入脑走心”,撞出了奇妙的火花。在美国国家航空航天局举行的无人机飞行比赛中,使用人工智能算法的无人机就在最短时间内学会了躲避障碍和找寻最优飞行路线。地面无人作战平台的日臻成熟,让美军催生出从现有地面车辆改造出一支“地面机器人敢死队”的大胆想法。这些使用了人工智能技术的无人战车无需耗费巨资加装重型装甲,就可以充当“尖刀”部队首先接敌,甚至还可以包抄敌人或空投至敌后执行自杀性任务。目前,美国海军也正在加速海上无人作战平台的研制工作,已公开展示有人工智能集群无人突击艇系统,可自主感知海上战场态势并对敌方舰船发动群体性攻击。

最能体现出人工智能在无人作战平台中的应用价值的,当属“集群智能”。目前,美军正在进行“有人-无人”协同作战试验,其中较为著名的就是“忠诚僚机”计划。该计划主要是为美军现有的第五代战斗机找一群忠诚可靠的无人僚机,以充分利用第五代战斗机的作战网络节点角色,发挥四代机机动性和火力充足的优势,组成一个空中作战“铁三角”。这样一个由无人机在最前面冲锋陷阵、相互配合实现较高程度自主协作的人工智能作战集群,势必成为一个谁都不敢捅的“战场马蜂窝”。

无独有偶,美国国防高级研究计划局主导的“小精灵”项目,同样旨在研制一种人工智能“武装大脑”的无人机群化武器系统。美国空军研究实验室启动的“编群战术空间”计划,重点研究无人机之间的协同作战能力,目前已经实现了12架无人机的自主协同飞行和模拟打击。美国陆军也成功实现了阿帕奇直升机的无人机飞行控制和情报传感,美军下一代B-21远程轰炸机也将探索与无人机的混合编队,人工智能时代的无人战争可谓呼之欲出。

图片 5

美国斥巨资打造了人工智能网络防御系统

关于人工智能用于军事目的乃至于投放战场,一向是许多国外科技专家极力反对的决定。科学家们警告说,智能化机器人很容易受到黑客的攻击,它们可能被劫持,进而攻击无辜的人群。

2017年2月,韩国科学技术院大学成立国防人工智能融合研究中心,开发用于飞机训练、物体追踪、识别、大型无人潜艇等项目的军事人工智能技术。2017年10月,韩国国防部表示,韩国军方计划在2025年将这些技术投入到野战部队和实战中。

人工智能武器化“来势汹汹”

战场迷雾中的“雾里看花”

当我们对人工智能无人作战平台渐渐不觉为怪的时候,你是否想过,它会在有一天突然挺身情报界?得益于信息化技术手段的提升和网络融合趋势的加快,看不见摸不着的数据呈现出爆炸态势,尤其是无人机、摄像头等,正源源不断地传送着大量图像和视频信息。如何在数据汪洋中快速有效提取出关键信息,成为包括美国军方在内的美国情报部门研究的重点。

人工智能投身情报分析研究,可充分融合卫星、互联网、无人机、摄像头等技术手段,加快情报提取与分析速度,实现全天侯、多层次、实时广泛的情报搜集。美国中央情报局此前就曾公开透露,目前正依托硅谷的开发商开展137个人工智能情报处理项目,即便是那些看似不经意发出的朋友圈信息,也可能早就被“人工智能间谍”给盯上了。美国情报高级研究计划局也积极试水人工智能,目前正在研究如何用人工智能自动解析军事间谍卫星的影像数据,目前已经实现了75%工作量的自动化。

事实上,美国国防部正加紧研发可辅助情报人员识别恐怖袭击的人工智能技术,并计划借助人工智能算法分析整理极端组织情报数据。2017年底,美军就在中东地区开展了人工智能情报分析试验。加载有特殊算法的计算机被用来辅助分析无人机采集的视频信息,从中自动识别出人、汽车以及各类建筑物。经过不断学习和算法更新,人工智能在复杂环境下自动识别率已经超过80%。借助人工智能算法,美国国防部算法战跨职能小组研制出可将无人机收集的海量视频数据快速分类的软件,并实现对目标的探测、分类和预警计算,以便为军事决策提供更多具有实际价值的情报。如今,算法战跨职能小组已经研发出多套与无人机配合的人工智能算法,下一步还计划将人工智能分析软件直接集成到无人机体内,实现“你中有我”的智能化情报采集分析,或将按下美军智能化建设的快进键。

除帮助美军破解信息化战场上的数字迷雾,美军还在网络攻防领域试水人工智能,借助深度学习技术对网络攻击的特点和规律进行分析,进而充分应对未来可能愈演愈烈的网络攻击。拥有“深度学习”能力的人工智能应用于网络防御,恰好可利用海量攻击信息作为学习样本,在面对大量的网络威胁变化时能快速处理分析,不仅能解决网络防御人才不足的问题,更能提高网络攻击的检测与响应速度,甚至还能“未卜先知”提前感知威胁,为网络安全带来了一番新气象。

美国海军早在2015年就投入巨资,专门用于人工智能网络防御系统研发。2017年,美国空军与国防部战略能力办公室着眼于美军未来网络安全,开始了一种人工智能驱动的网络免疫系统研发。美国国防高级研究计划局研发的人工智能网络攻击系统,能自主学习网络的架构、规模、设备类型等信息,并通过对网络流数据分析自主编写出适用于该网络环境的攻击程序。该系统不仅可每24小时生成一套攻击代码,还能根据网络环境动态调整攻击程序,直接“致盲”依托病毒库和行为识别的防病毒系统,隐蔽性和破坏性极强。此外,基于人工智能处理芯片的自主网络攻击系统也得到了美国国防高级研究计划局的高度重视和优先资助。

图片 6

人工智能器械曾给人带来致命伤害,人类对人工智能要保持警惕

去年,116名全球人工智能和机器人领域的专家发表联名公开信,呼吁联合国采取行动禁止“自主杀人机器”,称其为“恐怖武器”。今年4月,3000多名谷歌员工向谷歌首席执行官桑德尔·皮查伊联名上书,反对该公司参与五角大楼的军用人工智能Project Maven项目。该项目利用机器人深度学习和人工智能分析、应用计算机视觉技术,帮助美国防部从图像和视频中提取识别重点对象目标。谷歌高层被迫作出决定,Project Maven合同将于2019年到期,此后不再与五角大楼续签。

无独有偶。2017年4月,美国军方提出Maven项目,要完成的任务是帮助美国国防部处理来自全球各地的海量视频资料。美国国防部每天收集到不同来源、数量庞大的视频资料,而人类图像分析师远远不能完成判读,国防部希望能利用人工智能技术来分析这些视频。由于仅靠军方无力完成,国防部于是转向寻求与学界和业界人工智能专家合作,组成所谓算法战争跨功能团队,其中就包括在人工智能研发方面具有顶级水平的谷歌公司。

一手缔造出“机甲战士”和人工智能的人类,好像与生俱来就对它们存在着恐惧。科幻电影《终结者》中,拥有超人智力的“天网”系统不仅没有成为人类的得力助手,反而为人类带来了“终结者末日”。这些关于“机器人杀人”的科幻作品无不引人深思:拥有超人智力的智能机器,是否会危及人类自身安全?

“终结者末日”会否到来?

其实,美国军方对于人工智能的超前探索还有许许多多。美军特种作战司令部目前正积极研究用人工智能追踪大规模杀伤性武器。美国休斯网络系统公司还曾向美军展示过一种基于人工智能的业务管理和控制技术,可实现不同卫星通信技术之间的协同操作,目前已成为美国空军的资助项目。在美国军方已启动的多个人工智能军事项目中,甚至还有利用人工智能寻找核导弹发射器位置,并预测核导弹发射的人工智能版“黑科技”。2019年4月5日,美国空军太空及导弹系统中心还专门推出了一项用于预测太空态势感知状态的项目,主要借助人工智能技术对来自卫星、无人机及其他平台的数据进行分析。

然而,美国军方在高度依赖人工智能实现颠覆性技术压制的同时,也必须高度警惕人工智能可能带来的“终结者末日”。毕竟,具备自主决策能力的“作战机器人”“攻击无人机”是否会变成威胁人类生存的“杀戮机器”,是必须严肃思考的课题。电影《终结者》中,拥有超人智力的天网系统不仅没有成为人类的得力助手,反而为人类带来了“终结者末日”。2005年的伊拉克战场上,美军的剑战斗机器人就曾无故将枪口指向指挥官;2015年7月,美国一台“发疯”的机器人也曾“失手”将一名装配工人杀死。可以说,在复杂战场环境下,拥有高度智能的无人作战系统极有可能出现识别错误、通信降级甚至被敌电磁、网络攻击后“倒戈反击”等问题,而诸如滥杀无辜、系统失控等更是给智能武器的军事应用带来了无穷隐忧。

对此,美国军方已经计划通过建立人工智能与机器学习政策与监督理事会以及要求评估自主武器的扩散后果等方式,主动关注人工智能武器可能带来的应用风险。事实上,即便是人工智能拥有了“超人”般的智慧,也不见得就完全行得通。应对人工智能分析系统,我们只需要通过相当简单的数字欺骗,就可令人工智能系统发生误判。对此,美国情报高级研究计划局都不得不为人工智能寻找预防和应对欺骗的方法。

即便是人工智能军事化日益完善成熟,也不能放任自主武器野蛮生长。事关战争的重大问题决不能轻易交由机器来做抉择,即便是拥有了高度人工智能的智能化武器装备,面对复杂的人类战场环境,也不是只靠数据和算法就能“想”明白的。

版权声明:本文刊于《军事文摘》杂志。作者:张瑷敏。如需转载请务必注明“转自《军事文摘》”。

包括美国太空探索技术公司首席执行官马斯克在内的2400名机器人研究人员和工程师近日还在斯德哥尔摩宣誓称,“绝不参与致命性自主武器系统的开发、研制工作。”

尽管美国国防部强调,Maven项目只作为人类情报分析的合作伙伴,项目完全遵守并且受制于美国的法律和战争法,在部署武器系统的过程中确保人类的参与度最大化。但研究人员认为,人工智能技术可能会以难以察觉的方式产生重大疏失,并造成致命性后果。2018年4月4日,3100名谷歌员工联名发出公开信,要求谷歌退出由美国国防部主导的Maven计划,并向所有员工承诺,永远不参与任何打造类似战争科技的计划或者项目。

诞生于上个世纪50年代的人工智能,依托计算机运用数学算法模仿人类智力,让机器“学会”人类分析、推理和独立思考的能力。此次点燃谷歌公司人工智能军事应用争论“导火索”的,正是美国国防部“算法战争跨功能团队”的Maven项目。

但与这些反对智能化武器观点不同的是,美国《华尔街日报》29日提出完全相反的意见。该报道认为,从地毯式轰炸、大威力核弹到精确制导武器,人类距离精确化杀伤越来越近。“智能化武器只会减少战争中的误伤和附带毁伤,不会带来更大的伤亡数字”。

随着人工智能技术不断进步,它在军事领域的运用也越来越广泛。无人机、无人战车、无人舰船、无人潜艇等大量涌现,而且智能化程度和自主性水平越来越高。有人断言,机器人战争、智能化战争的大幕已经拉开,这引发了科学家和研发人员的高度忧虑。

目前,美国国防部每天都会收集到来自无人机机群的海量战场视频数据,早已令人类图像分析师不堪重负。能否借助人工智能自动识别视频中的重要目标信息,成为美国军方与谷歌公司合作的重点。

报道特别强调,尽管近年来美军无人机也多次发生误伤平民的事件,但这并非是智能化武器的错,而是情报识别出了问题。而五角大楼组建算法作战跨功能团队,发展Project Maven项目,正是为了更精确地识别、杀伤恐怖分子等敌人,防止误伤无辜的平民,因此谷歌公司“如果真是为了和平,更加应该准备战争”。

自主武器系统的发展现状和未来预期

然而,“来势汹汹”的人工智能武器化,也引发了人们对于“冷血机器”的深思。韩国科学技术院研发的人工智能机器人武器,就遭到了30余个国家和地区研究人员的集体反对。斯蒂芬·霍金、伊隆·马斯克以及数千名人工智能与机器人领域研究人员也曾发表公开信,表达了对人工智能武器可能引发的“终结者末日”的担忧。

军用AI能干什么?

也许有人会疑惑,美军不是很早就在战场上使用机器人了吗?的确如此。但是,无论是阿富汗战争中美军用捕食者无人机摧毁撤退中的塔利班指挥机构,还是此后用无人机在阿富汗、伊拉克、也门、巴基斯坦等地对恐怖分子头目进行定点清除,无人机都只是用作侦察搜索和导弹发射平台,开火指令始终操控在后方控制人员手中。美军在伊拉克战场上投入的陆上机器人有近5000个,但只是用作巡逻队行进前探路、引爆路边炸弹、危险区域作业等。

早就与军事“联姻”——

人工智能技术对于军事乃至战争而言,远不只是杀人机器人这么简单。最初级的AI技术在众多防空、反导预警体系中早已开始应用,许多防空和导弹防御系统的操作人员与系统通过协作并识别和确认敌方目标后,发射拦截导弹,随后由系统自主探测并截获目标。

非军事类自主智能系统事实上早已实现,IBM研制的战胜国际象棋大师的深蓝、谷歌研制的战胜国际一流围棋高手李世石和柯洁的阿法狗,他们在对弈过程中都脱离了人的控制,行棋思考、决策完全是机器自主完成的。

战争机器有了“人类智慧”

近年来依托大数据发展的AI技术,让各种武装机器人和无人机成为智能化武器的雏形,这也是科学家们最为反对的目标。美国陆海空军和海军陆战队都开发了多款智能化武器平台,美军X-47B无人机曾在多艘航母上成功自主起降。美国陆军、海军陆战队还分别为M1A2主战坦克和“阿帕奇”武装直升机研发僚车、僚机,试图开发出以“有人驾驭无人”的作战新模式。

而自主武器或军用自主智能系统包括两类:一是具有自主决策权的指挥控制系统,即自主指挥控制系统;二是自主武器系统,即具有战场射杀权的智能机器人,也就是科学家所称的杀人机器人。

早在上世纪60年代,美军就尝试把尚不成熟的人工智能与军事应用“联姻”。现代战争迈入智能化时代,尝到了“以智取胜”甜头的美军加速推进智能化武器的发展应用。目前,人工智能早已渗透至军事应用各个领域,具备指挥高效化、打击精确化、操作自动化和行为智能化的人工智能武器装备,将在未来战场发挥“机器智慧”的独特作用。

而在更高层级的战争指挥和作战规划方面,人工智能也在不断取得突破。例如以前规划一次20分钟的大型空中作战需要40人到50人耗时12小时,而在AI的协助下,该规划有望在1小时内完成。据报道,俄军正在应用AI和大数据技术,模拟用软件代替士兵做出作战决策,以应对迅雷不及掩耳的军事打击。

目前,智能指挥控制系统的发展,处于辅助人工决策阶段,即利用人工智能技术,提高情报侦察、预警探测、通信联络、战场管理等系统的智能水平,替代指挥员某些常规性思维,最高级形式是为指挥员提供辅助决策方案,供指挥员决策参考,但最后的决策权仍然在指挥员手中。

专家系统。借助人工智能所拥有的推理分析能力,求解通常只有专家才能解决的各类复杂问题,是目前人工智能军事化最为活跃的应用之一。研究结果表明,人工智能用于战争指挥和作战规划,能将以往耗时12小时的工作量压缩到1小时。美国国防部高级研究计划局曾积极开展“深绿”系统研究,能提前预测战场态势变化,为指挥员计划决策提供重要辅助。俄罗斯军方也在积极推动人工智能代替士兵做决策,以求在瞬息万变的战场环境中抓住稍纵即逝的战机。此外,专家系统还可有力提升武器装备对战场态势的感知和评估能力,实现各类战场信息的有机融合。

智能化军备竞赛已开始

在自主武器系统方面,目前并没有达到可以将射杀权或开火权交托给智能武器系统的程度。韩国国防部的韩华Systems项目,只是预计在2025年将自主武器系统投入实战之中。美国国防部的Maven项目,则完全回避了将射杀权交给武器系统这一实质问题,信誓旦旦地保证只会将人工智能技术用于情报分析与融合。

深度学习。主要模仿人脑学习过程,通过经验积累和自我学习不断提升“战场思维”。将深度学习技术应用于武器装备,有望进一步提升武器装备的自动目标识别能力,为破解战场“数据迷雾”提供有力支持。美国国防部高级研究计划局开展的“对抗环境下的目标识别与自适应”项目,旨在借助深度学习实现合成孔径雷达图像中目标的自动识别定位。“图像感知、解析、利用”项目则通过模式识别技术,实现对视频和图像中重要信息的有效提取转化。此外,人们还在为海量情报数据和数字化信息找寻“人工智能”解决方案,美国中央情报局就在积极推进137个人工智能情报处理项目。

2008年,美海军研究办公室就发表报告承认,运用于战争的自主机器人无法承担法律责任。“目前机器人无法分辨平民和士兵,无法为自己的行为负责。在未来的无人化战争中,作战主体远离战场,无人化武器将以一种‘非人性化’的方式杀人,既不懂承担战争危险的伦理性,也没有对战争苦难的情感体验”。类似电影《终结者》中的人类末日场景更是诸多科学家担心的终极噩梦,然而截至目前,国际上对军用智能化技术没有任何具体规定,国际社会也未明确支持一个限制或禁止此类武器系统的条约。

对比发现,美国军方在这一问题上的态度相对谨慎。虽然这并不能证明美国军方没有朝这一方面发展,甚至其实际发展可能处于世界前列。但这样的谨慎仍然非常必要。著名科学家霍金就对人工智能的军事运用前景保持高度警惕:除非我们事先做好准备并避免潜在风险,否则人工智能可能成为人类文明史上最糟的事件,它会给整个人类带来危险,例如致命的自主武器的出现。

运动控制。无人化作战平台的兴起,也对人工智能提出了新的技术需求。曾实现完美“后空翻”的美国“阿特拉斯”机器人,需要时刻监测机体各项参数并实现运动控制,人工智能算法为其“运动自如”提供了一颗“智慧的大脑”。更能发挥人工智能效能的是集群运动控制领域,无论是美国于2014年完成的13艘无人艇自主集群行动试验,还是从3架F-18“大黄蜂”战斗机上释放的103架“山鹑”微型无人侦察机,抑或是美军正在展开的有人武器与无人武器协同作战,人工智能都为这些看似“呆头呆脑”的机器提供了“人类智慧”。

值得注意的是,美军推出的“第三次抵消战略”认为,以智能化军队、自主化装备和无人化战争为标志的军事变革风暴正在来临,美军计划2035年前初步建成智能化作战体系,对主要对手形成新的军事“代差”,到2050年前美军的作战平台、信息系统、指挥控制全面实现智能化甚至无人化,实现真正的“机器人战争”。美国国防部去年8月表示,未来AI战争不可避免,美国需要“立即采取行动”加速AI战争科技的开发工作。俄罗斯也在开发多个智能化无人作战平台项目。俄军的“天王星-6”无人扫雷车已经在叙利亚战争投入使用。苏霍伊公司的“猎人”远程重型无人机也将于今年年底首飞。根据历史经验来看,人类的理性恐怕很难阻止新技术军事化的步伐。军用智能化时代的到来,可能只是一个时间问题。

霍金所说的致命的自主武器,就是具有自主射杀权的智能武器系统,即科学家们所说的杀人机器人。而避免潜在风险最有效的办法实际上并不取决于技术发展,而取决于人类的决定。

关键还是人类自身——

自主武器系统面临无法解决的技术难题

谨防机器成为“嗜血怪兽”

智能机器人作为情报收集、处理、融合和信息传递、武器运载平台的功能,已非常成熟。伊拉克战争和后续反恐作战中,无人机的上述能力已经表现得非常出色。之所以不能将射杀权交给智能机器人,是因为这一权利事关生死,同时它还面临诸多技术难题。

在信息化和智能化战争的大背景下,把人工智能与军事应用“一刀两断”,恐怕谁也做不到。即便是此前倍感“压力山大”的谷歌公司,也明确表示将会继续在涉及网络安全、征兵等领域与美国军方开展人工智能技术合作。要防范人工智能成为“嗜血怪兽”,关键还是人类自身。

在伊拉克反恐作战的后续地面稳定作战阶段,2007年10月,美军第三机步师的一个小分队执行进攻一个反美武装据点的任务。为了应对恐怖分子可能的极端反击手段和执行危险区域排险任务,小分队携带了3台装载了武器的利剑智能机器人,以便在危急和需要的情况下,通过遥控下令利剑开火摧毁目标。

事实上,人工智能的军事化应用虽然还只是刚刚起步,但它确实在未来战争中占据着不可替代的重要位置。未来战争作战节奏越来越快,战场数据将成“井喷”式增长,人脑很难应对瞬息万变的战场态势,反应速度快、信息容量大、不受时空或体力限制的人工智能必然会进入战场决策的“指挥圈”。美国国防部计划到2035年初步建成智能化作战体系,到2050年实现作战平台、信息系统、指挥控制的全面智能化,借此实现与对手的“技术代差”。

但不知是遥控指令受到干扰还是利剑的程序运行紊乱所致,一台利剑竟然调转枪口指向操作者,操作者反复发出行动取消的指令,失控的利剑仍是置若罔闻。为了避免伤及己方,分队指挥员只得当机立断,下令队友用火箭筒将失控的利剑摧毁才化险为夷。这一事例说明,不仅将射杀权交给智能机器人是危险的,甚至将其装备武器而不授权其自主开火,都有可能导致意想不到的危险。

同时,人工智能还将加速战场数据的信息融合,伴随着无人机、无人潜航器、机器人士兵以及“无人与有人”协同作战单元逐步走向战场,“云端大脑”“数字参谋”“虚拟仓储”等人工智能军事化应用或将在未来战争中发挥“颠覆性”作用。

也许有人会疑惑,深蓝战胜国际象棋大师和阿法狗战胜世界一流棋手李世石和柯洁,不是说明智能机器人已经在思维上超越人类了吗?事实并非如此。要说在某一方面超过人类,石头的杀伤力就超过了人的拳头。人工智能在国际象棋和围棋上战胜人类,是因为此类游戏的竞赛规则简单明确,易于用数学模型和计算机程序语言描述,而计算机的计算速度和能力又远超人脑,还不会出现疲劳现象和受到情绪化波动的影响。

然而,人工智能武器只是一台完成人类布置任务的机器,一旦被别有用心的人重新编程,极有可能制造出一台滥杀无辜的“杀人机器”。面对复杂的人类战场环境,智能化武器装备也不是只靠数据和算法就能“想”明白的。2016年6月,英国潜艇曾向美国本土误发射一枚“三叉戟”洲际导弹,本应自动搜索和响应的美国反导系统却毫无反应,这才避免了一起自动触发报复机制的“灾难”。

迄今为止,现有智能机器人所具有的任何能力,都是人类程序员用计算机语言写就的程序赋予的。人能够用计算机程序语言表达某一能力的前提,是人类对这一能力已经研究透彻并准确地描述。而人类对于自己大脑和思维的认识,除了某些特定领域,整体上还处于起步阶段。

由此可见,事关战争的重大问题决不能轻易交由机器来做抉择,即便是人工智能军事化日益完善成熟,也不能放任智能化武器的“野蛮生长”。

在战场上作出开火的决定,是综合衡量大量复杂因素的结果。现有技术甚至连作出这个决定时人的思维所要考虑的因素,都无法全面罗列出来,更不用说构建相应的数学模型,进行逻辑严谨的模拟演示。例如,《日内瓦公约》规定,不得射杀伤兵、医护兵、跳伞飞行员及失去抵抗能力的士兵,智能机器人怎样分辨出这些人,以及怎样判断对方是否已经失去抵抗能力,这些至少在当前还是难以逾越的技术障碍。

制 图:郭烨瑾

杀人机器人的最终出现或难避免

尽管如此,自主武器系统的出现可能很难被阻止。2016年美国空军举行的一次模拟空中对抗赛中,人工智能系统以其灵活、迅捷的动作,击败了具备更强武器系统的退役战斗机飞行员。这和国际象棋大师输给深蓝,李世石、柯洁输给阿法狗一样,显示了人工智能在特定军事领域具有超过优秀军事人员的潜力。在军事强权依然具有国际主导作用的时代,这样的诱惑,对于具备科研条件的国家和军队是难以抵御的。韩国国防部的韩华Systems项目和美国国防部的Maven项目就是明证。

目前,在武器装备和指挥控制方面,人工智能的主要研发应用包括陆地、海洋、太空等各类作战机器人以及各类智能炸弹。随着人工智能技术的不断完善并在军事上广泛应用,情报、决策与作战一体化将取得快速进展。也就是说,韩国科研机构研制在无人控制的情况下搜索并消除目标的自主武器,已是当前人工智能军事化进展的代表方向。自主武器系统加入未来战争不会有太大悬念。但到底是人与机器人之间作战,还是机器人与机器人之间作战,取决于一定的战争主体在这场人工智能军事机器人研制赛跑中是领先还是落后。

也就是说,在是否将射杀权交给智能机器人问题上,关键不在能不能,而在该不该。在2017年人工智能国际会议上,特斯拉首席执行官马斯克、苹果联合创始人沃兹、研发阿法狗的深度思维公司哈萨比斯等人签署公开信,呼吁联合国像禁止生化武器一样,禁止在战争中使用致命的自主武器即杀手机器人。杀人机器人的研发招致众多科学家的反对和抵制,也许,避免潜在风险的唯一办法就是永远不将射杀权交给智能机器人。

责任编辑:何周重

本文由bob体育官方平台发布于古今纵横,转载请注明出处:美国正打造人工智能,美方直言AI战争不可避免

关键词: