美军、科技巨头联手AI军事化
智能化战争已势不可挡, 科技界挣扎在“不作恶”与商业利益之间
2018/07/25 | 赵福帅 | 阅读次数:3499 | 收藏本文
摘要:各国军方、科技巨头、高校院所等不会停止将人工智能应用于军事的脚步,从机械化战争到信息化战争,再到智能化战争,AI军事化注定势不可挡。

近日,谷歌终于宣布,与美国国防部的Maven项目合同在明年到期后不再续约。
谷歌CEO桑达尔·皮查伊为此发表了题为《AI at Google:ourprinciples》(谷歌AI的原则)的文章,阐述谷歌在研发和使用AI(人工智能)时将遵循的7大指导原则,并明确列出谷歌“不会追求的AI应用”类别,包括:可能造成危害的技术、武器或其他以人身伤害为主要目的的技术、违反国际公约收集或使用信息的技术,以及违反人权和国际法的技术等。
去年9月,谷歌获得了五角大楼的Maven项目合同,并选择对外秘而不宣。
直到今年初,有员工在谷歌内部交流平台将此事曝光。一时各界哗然,“丑闻”随即迅猛发酵。大批员工认为,谷歌参与五角大楼Maven项目,违背了谷歌成立之初立下的“不作恶”原则和理想。
谷歌高层试图挽留该项目。结果,四千余名谷歌员工签署请愿书,要求公司取消该项目合同,数十名员工辞职以示抗议。同时,全球学术界有三百多名人工智能专家也联名上书谷歌高管。
迫于压力,谷歌最终放弃了Maven项目。
不过,业界解读,各国军方、科技巨头、高校院所等不会停止将人工智能应用于军事的脚步,从机械化战争到信息化战争,再到智能化战争,AI军事化注定势不可挡。
秘密参与
2017年4月,美国五角大楼提出了Maven项目。美国军方在全球各地投放了大量无人机,这些无人机每日每时都传回海量的视频资料,军方分析师早已不堪重负。Maven的首要任务就是,利用人工智能技术,来识别无人机镜头中的车辆和其他物体,从而减轻分析人员的负担。
去年8月,美国国防部长马蒂斯到访硅谷,与谷歌高层会面。9月,谷歌拿到有史以来第一份与五角大楼的AI合同。
当时,谷歌高管李飞飞一度建议避开这份合约。李飞飞是全球人工智能领域最耀眼的科学家之一,同时担任斯坦福大学人工智能实验室主任和谷歌云人工智能首席科学家。
后来她在给《纽约时报》的一封电子邮件中回忆道,“武器化人工智能可能是人工智能最敏感的话题之一”。如果谷歌与军方合作,对媒体来说是“red meat”(报道标靶)。李飞飞说,“我相信以人为中心的AI能以积极、善意的方式造福人类。任何AI武器化的项目,都是违背我的原则的。”
不过,在与IBM、亚马逊和微软等激烈争夺数月后,谷歌在去年9月底还是获得了Maven项目的合同。
谷歌高层曾非常支持Maven项目,因为这可以让谷歌云赢得更多更大的五角大楼合同。据报道,谷歌正在竞标五角大楼价值上百亿美元的云计算——JEDI项目(联合企业国防基建项目)。IBM和微软等也将参与竞标。
但他们也对外界如何评判谷歌参与军事项目十分担忧。于是,谷歌与国防部的合同条款之一是,未经该公司许可,谷歌的参与不得被提及。
直到今年初,有员工在谷歌内部交流平台曝光此事,随后引爆了谷歌员工们的激烈反对。
硅谷所在的旧金山湾区有较强的自由派倾向,历来“不作恶”的谷歌又居旗手地位,这份协议在公司内部员工间非常不受欢迎。
按照美国军方的说法:Maven项目在军事打击过程中,不仅可以提升打击精准度,还可以避免误伤友军。面对质疑,美国军方强调,只会将人工智能作为人类收集情报的合作伙伴。
谷歌员工们显然无法接受军方的解释,因为谷歌参与军事项目本已违背原则,而且人工智能技术还不完善,一旦出错或失控,可能造成灾难性后果。
《杀人机器人》短片就描述了迷你无人机群刺杀政治活动家和律师的故事,只有巴掌大的无人机,可以在无人指导的情况下,通过实时数据分析和人工智能,定位并射杀人类。
更让人惊悚的是,影片中描写的科技都是现实可行的技术,如人脸识别、自动定位、无人机等。
谷歌参与的Maven项目,就会运用到这些技术。
“不作恶”原则还能守多久?
2017年4月26日,美国加利福尼亚,海军研究办公室的项目官员向海军陆战队成员介绍了基于“低成本无人机蜂群技术”的无人机,也就是被媒体认为是代号“郊狼”的无人机。
面对大批员工的反对,谷歌高层一度虚与委蛇,不愿放弃Maven项目。
今年4月,四千余名谷歌员工联名上书,要求CEO皮查伊立即取消参与Maven项目,并发布声明承诺谷歌不会开发用于战争的技术。
这份请愿书援引了谷歌避免涉足军事领域的历史,及其著名的“不作恶”口号。
“谷歌参与Maven项目将不可挽回地毁灭谷歌的品牌和它吸纳人才的能力。在越来越多的对于人工智能可能会武器化的恐惧中,谷歌在获取公众信任方面已经显得力不从心。这一协议将会使谷歌的声誉面临威胁,并将会使谷歌站在其核心价值观的对立面。”谷歌的员工在信中写到。
不过,这封信还是没能立即奏效。
谷歌云CEO黛安·格林曾向员工解释,Maven项目不是为了攻击目的,该合同“仅900万美元”,主要是为国防部提供了开源软件TensorFlow。
但科技媒体Gizmodo获得的内部电子邮件显示,最初的合同价值至少1500万美元,预计该项目的预算将增长到高达2.5亿美元。谷歌也并不只是提供开源的TensorFlow软件,而是打算建立一个类似“谷歌地球”的监测系统,让五角大楼的分析师能“点击建筑,查看与之相关的一切”,并为“整个城市”建立车辆、人员、土地特性等的图像。
到去年12月,谷歌就已经构建了一个系统,并且取得不错的成果,模型对专业标签错过的车辆检测的准确率能达到90%。
历史上,谷歌推崇一种鼓励员工挑战和讨论产品决策的开放文化。
但是一些员工认为,谷歌高层不再关心他们的担忧。“在过去几个月里,我对这种回应,以及对人们所关心问题的处理和倾听方式越来越失望。”一位辞职的员工说。
除了数十名员工辞职,学界也加入对谷歌的质疑中。5月,国际机器人武器控制委员会(ICRAC)向谷歌母公司Alphabet的CEO拉里·佩奇,谷歌CEO桑达尔·皮查伊,谷歌云CEO黛安·格林,谷歌云首席科学家、副总裁李飞飞发出一封公开信。
他们要求谷歌及其母公司Alphabet:终止与国防部的Maven项目合同;承诺不开发军事技术,也不允许其收集的个人数据用于军事行动;承诺不参与或支持发展、制造、贸易或使用自主武器;并支持禁止自主武器。
“根据谷歌、微软和亚马逊等的类似合同,这样的做法标志着拥有大量全球敏感私人数据的科技公司与一个国家军队的危险联盟。”信中称,“我们距离授权自动无人机自动杀人,而不需要人工控制,只需要一小步。科技公司的行为需要考虑谁可能受益于技术,而谁又可能受到伤害。”
谷歌及其母公司Alphabet雇佣了许多世界顶级的人工智能科学家,他们很多都来自学术界,因为认同谷歌的伟大理想和信条而加入其中。
比如,深度学习三巨头之一的Geoff Hinton一直公开表示他不愿为美国政府工作,1980年代后期,Hinton离开美国去加拿大的部分原因是他不愿从国防部获得资金。谷歌人工智能统帅Jeff Dean也参与签署了一封反对使用自主武器的联名信。
位于伦敦的DeepMind(开发了著名的阿尔法狗,谷歌于2014年收购)高层也表示,他们完全反对军事和监视项目,而且员工们已经表示了强烈抗议。DeepMind与谷歌的收购合同即表明,DeepMind的技术永远不允许被用于军事或监视用途。
谷歌高层明白,继续坚持Maven项目,将面对无法承受的内外舆论压力和AI人才的流失;如果放弃合同,谷歌也可能因此失去更多的五角大楼合同。
到6月,谷歌终于宣布,与美国军方签订的Maven合同在2019年到期后,将不再寻求续约。
随后,谷歌CEO皮查伊发布署名文章《谷歌AI的原则》。文中,皮查伊概述了谷歌应用AI的7个核心原则,并列出不会追求的AI应用。
皮查伊还表示,谷歌虽然不会开发用于武器的AI,但将继续在其他许多领域与政府和军方合作,包括:网络安全、培训、军人招募、退伍军人医疗、搜索和救援。
对于谷歌的退缩,美国国防部似乎无所谓。他们认为其他承包商仍然会竞相参与。美国国防部高级研究计划局(DARPA,美军最重要的高科技研发组织者)副局长Peter Highnam表示,DARPA的AI等技术项目“有数百家积极出价的院校和公司”。
AI军事变革
“谁能掌控AI,谁就能掌控世界……”去年9月,俄罗斯总统普京在对一群小学生就人工智能发表讲话时宣称。
美国五角大楼则将机器人武器视为自二战以来的第三次技术浪潮。第一次技术浪潮是1950年代战地核武器的发展,其目的是阻挡苏联对西欧的潜在入侵;第二次是始于1970年代的精确打击武器的发展,并应用于1991年的海湾战争中。目前,AI在军事领域的应用似乎正推动信息化战争向“算法战争”转变。
美国国防部副部长、前波音公司高管Patrick Shanahan(帕特里克·沙纳汗)日前表示,五角大楼准备在近期建成一个“卓越中心”,将多个现有的与AI应用相关的军事计划整合在一起。
据《华尔街日报》报道,美国国防部在2017年人工智能相关领域的花费为74亿美元。
应美国情报高级研究计划局(IARPA)要求,哈佛大学肯尼迪政治学院2017年7月发布《人工智能与国家安全》报告。
报告指出,AI的每一种技术都为美国国家安全机构的战略、组织、优先事项和资源分配带来重大变革,其未来影响力至少可与核武器比肩。
该报告提出的三点建议就包括支持AI技术用于和平目的:DARPA、IARPA、海军研究办公室和国家科学基金会应增加与AI相关的基础研究经费;国防部应发布关于AI军民两用能力的信息征询书;向美国In-Q-Tel公司(专门服务于中央情报局)提供更多资源,促进国家安全机构和AI商业公司的合作。
目前,美国军方已经启动众多AI军事项目,各类无人车、无人机、无人船等层出不穷,这些项目多涉及大学院所、军工企业以及科技公司。
2016年6月,美国辛辛那提大学通过一场模拟空战,测试了该校开发的名为“ALPHA”的飞行程序。模拟空战中,“ALPHA”驾驶F-15战机凌厉地碾压了驾驶F-22战机的基恩·李上校。李上校表示:“这是我见过的最具侵略性、敏捷性、变化性和可靠性的AI”。
X-47B是美国海军空中无人战斗平台的验证机,2011年首飞成功,2013年实现航母起降,2015年实现自主空中加油,成为人类历史上第一架由电脑独立操纵,具备监视、情报收集和战场打击多功能的无人飞行器。
在中小型无人机方面,2016年7月,美国海军利用雷神公司的“郊狼”无人机开展了海上无人机蜂群编队试验,验证了蜂群作战、巡飞、陆地回收等关键技术。
美国某研究团队进行数百次模拟的结果表明,8架无人机进行集群攻击时,有大约3架能够避开世界最先进的“宙斯盾”防御系统的拦截。可见,智能无人飞行器一旦具备了集群作战能力,将可能彻底改变战争中的攻防平衡。
唐吉诃德式的战斗
“有些国家会从国家层面为占领人工智能领域的制高点而展开竞争,这可能引发第三次世界大战。”硅谷创业家埃隆·马斯克在推特上充满忧虑地说。
去年8月,马斯克与来自26个国家的116名机器人和人工智能公司的创始人签署了一份公开信,在墨尔本召开的国际人工智能联合会议(IJCAI)上公布,他们呼呼禁止机器人武器,希望联合国将其纳入特定常规武器公约(CCW)的禁用名单。
围绕机器人武器,联合国正式专家会议已经于去年11月开始讨论进行管制的可能性。
1981年签署的联合国《特定常规武器公约》,对禁用武器做了两种特征规定:一是过度不人道,如激光致盲武器;二是具有滥杀滥伤作用,如战时大量布置地雷。
人工智能武器的危险在于滥杀滥伤的可能,操作不当或被恶意攻击,甚至会引发人道危机。
比如,2015年曾曝出特斯拉电动车被黑客操控,在高速路上狂奔。同年举行的著名的黑客集会“黑帽子大会”上,就有现场展示通过无线控制器,黑进了智能狙击步枪。麻省理工学院的一项研究显示,AI识别系统可以被轻易欺骗,如系统会将塑料海龟识别成步枪。这些都表明目前的AI技术还有很多漏洞。
试想假如三两个极端分子,就可以遥控数十台自动射击的枪械机器人、上百台无人驾驶车辆,并且能把任何角落作为基地,最终可能酿成完全失控的灾难性大规模杀伤。
反对AI军事化的业内专家们,所能做的似乎只有不断联合署名。比如,近日约60位各国AI专家联合向韩国科学技术学院去信抗议,该大学如果不承诺停止研发,将与之断绝关系。声明中称,机器人武器“可能使战争恶化并为恐怖分子所利用,一旦开发出来将无法挽回”。最终,该学院院长发表声明,做出了承诺。
或许,部分谷歌员工和AI专家们对人工智能武器的反对,更像是唐吉诃德式的战斗。正如马斯克等人联名签署的公开信所言:“如果有任何一个主要军事力量推动人工智能武器发展,全球军备竞赛将无法避免。”
在AI军事化的道路上,各大国都注定处在博弈困境中,由于每个国家都担心他国开发AI武器,战略层面注定的不信任和不安全感,促使各大国都疯狂地竞争性开发AI武器。
AI军事化势不可挡。全球科技界注定要继续在“不作恶”与商业利益间做出选择。
相关报道
评论