股权奖励协议:机器人与未来战争

来源:百度文库 编辑:九乡新闻网 时间:2024/04/29 06:09:10

机器人与未来战争

类别:军事纵横   浏览量:24   版次:GB09   版名:地球周刊 军事   稿源:南方都市报   2011-01-02
作者: 原创   手机看新闻 全国订报编辑此文 摘要:2010年7月,在干冰制造的舞台烟雾和闪耀的聚光灯照射下,英国航空航天公司研制的新无人机在兰开夏郡沃顿机场隆重登场。这架名为塔兰尼斯(Taranis)的隐形无人机造价超过1.4亿英镑。据英国国防部称,它是真正的“完全自主”无人机,可以深入敌军腹地收集情报,投放炸弹,抵御其他战机或无人机的攻击。

(南方都市报  www.nddaily.com SouthernMetropolisDailyMark 南都网)

    英国研制的Taranis无人隐形战机号称真正的“完全自主”无人机。

    美军和英军都投入了巨资研究战地机器人,这对于未来战争意味着什么?又将引发什么样的伦理和法律问题?(南方都市报  www.nddaily.com SouthernMetropolisDailyMark 南都网)

    面对敌军战斗机,无人机只有一种理智的选择:逃跑。但是在2002年12月,一架美军猛禽无人机遭遇伊拉克米格战机后被命令留在原地。米格首先开炮,猛禽予以还击,不幸的是,战斗的结果是一堆掉落在伊拉克南部沙漠中的无人机残骸。

    这一事件被认为是无人机和传统战斗机之间的第一场近距离空战。然而,从某些方面说,猛禽无人机根本没有获胜的机会。美国和英国的无人机都由在几千英里之外的飞行员遥控操作,所以它们的行动和反应必然受到约1/4秒甚至更长时间的信号延迟的拖累。这意味着,避开敌机发射的导弹可能几乎为零,除非无人机能够完全自控。

    2010年7月,在干冰制造的舞台烟雾和闪耀的聚光灯照射下,英国航空航天公司研制的新无人机在兰开夏郡沃顿机场隆重登场。这架名为塔兰尼斯(Taranis)的隐形无人机造价超过1.4亿英镑。据英国国防部称,它是真正的“完全自主”无人机,可以深入敌军腹地收集情报,投放炸弹,抵御其他战机或无人机的攻击。2005-2007年度曾担任英国国防采购部长的德雷森爵士说,塔兰尼斯几乎完全不需要飞行员的遥控输入。

    塔兰尼斯只是国防系统自动化大趋势的一个例子。无需人类信息指令,能够独立做决定的机器将彻底地改变现代战争。美国、英国之类拥有先进军事技术的国家将自动化视为扩大军事打击范围、提高效率、减少人员伤亡的途径。2010年底出版的英国《战略防御和安全回顾》称之为在资源拮据时代,“应对意外情况”的手段。但是在耀眼的技术光环背后,自动化武器系统隐藏了一大堆的伦理和法律问题。

    对于一部分军事任务,武装机器人已经完全能够照顾自己。在很多美英联军的战舰一侧都安装有格林机关枪,它是Phalanx系统的一部分,可以自动对来袭导弹开火。以色列正在加沙地区边境部署能够对“入侵”巴勒斯坦人自动开火的机关枪。一位以色列军官告诉《国防新闻》杂志,这套“See-Shoot”(看见-射击)系统在投入使用初期仍然需要人类下达开火命令。

    Phalanx和See-Shoot都是自动化系统,但它们并非完全自主。这是一个细微却关键的区别。自动饮料机是自动化系统的一个典型例子:你按下选定的按钮,相应的饮料掉下来。类似地,Phalanx格林机关枪等待雷达上出现特殊信号,然后对来袭目标开火。另一方面,自主系统在接受成千上万条环境信息后,完成复杂得多的任务。它们需要处理海量电脑代码才能找到最佳的解决办法。有人认为,这和人类做决定的方式在根本上是一样的。(南方都市报  www.nddaily.com SouthernMetropolisDailyMark 南都网)

    塔兰尼斯这类武器系统实现自主化的方式依然是秘密,但通过其他的相关项目可以猜测其工作原理。在宾夕法尼亚州卡内基梅隆大学机器人技术学院,研究者们正在用五角大楼提供的资金研究一辆能够在战场上自主辨别道路的6轮坦克。这种自主坦克的原型机重约6吨,因为可以把汽车碾成一张薄片,所以绰号“碎石机”。最新原型机名叫自主平台演示机(A PD),重9吨,时速50英里。

    A PD能够自主决策的关键是一套结构复杂的自我导航工具。首先,它通过卫星地图(比如G oogle Earth)下载基本路线图。启动后,立体视频摄像机开始不断地制作环境3D图像,从而获得障碍物周围的更详细路线。为了获得更准确的读数,坦克安装有激光测量仪,时时测量它和周围地标的距离。

    A PD的主要研发者迪米·阿波斯托洛普洛斯说,它的负载可能包括侦察系统或武器,将被部署在战场最危险的地区。“听上去也许很奇怪,但我们认为,机器人的参与必然会改变战争,”他说,“这一点毫无疑问。它可以让很多人远离最危险的状况。我相信,这对于任何一方都是好事。”(南方都市报  www.nddaily.com SouthernMetropolisDailyMark 南都网)

    其他军用机器人的研究有大有小,有的令人惊叹,有的着实古怪。Darpa(美国国防部高级研究计划局)资助的Boston D ynam ics机器人实验室正在研究一种4足机器人,这款名叫大狗(BigDog)的机器人据说可以在几乎任何地形上行走。它通过感应器和马达自动控制平衡,行走在崎岖道路上就像一只无头山羊。

    更让人毛骨悚然的是给昆虫安装上控制系统,驾驭它们天生的自主飞行能力,用于侦察任务。有人提议,可以在昆虫变形时期将微型电子控制装置植入,让它和有机生命体合二为一。但也有人认为这一想法太遥不可及。

    可以肯定的是,各国对军用机器人的投入不惜血本。无人机则是重中之重。英国皇家空军已经拥有5架死神无人机,又订购了5架。美国胃口更大。按照五角大楼的计划,2011年,死神、猛禽和其他多功能无人机总数将达到300架,2020年将增加到800架。美国联合部队司令部的戈登·约翰逊这样评价军用机器人:“它们不会饥饿。它们不会害怕。它们不会忘记自己的使命。”这不禁让人想到1986年的影片《短论》。片中一位科学家创造了一台全自主军用机器人,夸耀说“它不会害怕。不会忘乎所以。不会悲伤。它只需要程序!”最后,机器人成了逃兵。

    如果现实世界的军用机器人发生故障怎么办?虽然,我们距离科幻小说中描绘的复杂机器人还有相当距离,军队已经开始考虑如何应对可能出现的故障。2010年6月,时任美国空军首席科学家的维尔纳·达姆发表了美国空军的“远瞻”报告《技术地平线》,他在文中指出,作为美国空军未来基本装备的自主系统必须经过严格的verification & validation(“核查和验证”,简称V& V)确证值得信任。

    现在的军用系统也必须经过V &V,这套方法从阿波罗计划沿用至今。这就是达姆所谓的“强力”方式:系统地测试武器的每一种可能状态,直到100%肯定。达姆说,现代战斗机一半多的成本用于软件开发,而其中相当一部分用于V& V.然而,对于自主系统,由于信息输入的各种状态几乎是无穷无尽的,所以无法采用“强力”V & V.虽然可以通过“预测”软件来简化V& V,但最终我们不得不满足于低于100%的肯定。

    “普通人也许会说,啊,99.99%还不够。”达姆说,“但要知道,大家开的车在很多性能上甚至没有经过99.99%的验证。另外,如果坚持100%验证,那么永远不可能拥有高度自主系统。”

    即使现有的人类遥控军用机器人也难免争议。有人相信,美国中情局用无人机暗杀阿富汗叛军,这违背了1976年美国总统福特签署的禁止政治暗杀法案。而对于完全抛弃了人类的完全自主系统,问题会变得更加复杂。“如果一台执行任务的机器朝着救护车而不是敌军坦克开了火,责任谁来负?”法律顾问兼系统工程师克里斯·埃利奥特问,“谁是罪魁祸首?”

    很多律师和科学家都提出了类似的担忧。谢菲尔德大学人工智能教授诺伊尔·夏基说,今天的自主机器人还无法可靠地分辨平民和士兵。他还认为,机器人缺乏另一种微妙的判断能力:即判断多大程度的平民伤亡对于军事胜利是可以接受的。

 

    “‘开火-歼灭’并不适用所有情况,”夏基说,“在伊拉克战争中有很多这样的例子:海军陆战队队员接到情报赶到某条巷子,当他们举枪准备射击时,发现叛军手无寸铁,抬在肩膀上的是一副棺材。这时候,陆战队员就会放下枪械,取下头盔,让敌人通行。机器人在类似情况下无法做出正确判断。它要寻找什么特征?那个木头盒子里会不会装有武器?

    对于自主攻击的情况———机器人自己做出开火决定———观点各不相同。一位英国国防部发言人通过电子邮件告诉记者,在“可以预见的未来,在攻击任务中,人类依然要扮演恰当的角色。”达姆认为这也是美国空军的立场,虽然在其最新的无人机计划书中似乎看不出这一点。计划书中这样说,“逐渐地,人类将脱离决策环节,转而监督某些决策的执行。”

    “与此同时,人工智能领域的进步将使自主系统独立做出战斗决定……未必一定需要人类的参与。”之后又补充说,然而,“授权机器做出致命的战斗决定要取决于政治和军队领导人解决相关法律和伦理问题。”

    2008年,美国海军研究办公室发表的一份报告承认自主系统确实存在伦理和法律障碍。报告称,“明智的目标”是通过软件让自主机器人能够具有和人类士兵一样的道德判断力,但是即使这样,依然“无法避免事故,这就引发了法律责任问题”。该报告还提出,未来某一天,自主机器人可能像儿童一样被视为“半刑事责任人”。

    约克大学的电脑科学家罗伯·亚历山大认为这实在太荒谬了。“机器无法为它自己的行为负责,至少依据可以预见的技术是不能的。”他说,“我们这里说的不是科幻小说。这些机器的操作者和设计者应为它们的行为负责。”

    达拉莫大学人文地理学家史蒂芬·格雷汉姆在他的新书《围城:新军事城市主义》中指出,武器自动化是战争从野外向城市转移的结果,在复杂的城市环境中,墙壁和死角“损害”了先进武器的霸权。但是,格雷汉姆指出,自动化的真正危险是发动战争的政治代价变小,所以不再是最后的手段。

    考虑到目前机器人技术的局限,在短期内,自主武器引发的深层法律和伦理问题依然还是假设的。达姆预测,在近期,自动化技术将是大军事系统的组成部分,完成一些对于人类而言太沉闷辛苦的工作。比如,卫星可以自动过滤侦察数据,只对人类展示那些可识别目标的图像。事实上,军队指挥官已经在用自动化技术,帮助完成某些对精确度要求很高的任务,比如组织武器弹药部署。随着时间推移,更多战术决定将被交给机器。

    人们也许担忧我们正在走向一个灾难科幻电影中描述的反乌托邦未来,一个被获得自我意识的机器人占领的世界。但事实上,我们真正应该害怕的是人工智能的反面。正如夏基所说:“我不认为我们正在走向终结者似的未来。电影中的机器人是真的聪明。编译:宇