打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
决不允许杀人机器人出现!马斯克领衔,超过2000名科学家联名签署《致命性自主武器宣言》

携带机枪的杀人机器人THeMIS


今天,在瑞典斯德哥尔摩举办的2018国际人工智能联合会议上,包括SpaceX及特斯拉CEO埃隆·马斯克(Elon Musk)、谷歌DeepMind三位创始人在内的超过2000名AI学者共同签署《致命性自主武器宣言》(lethal autonomous weapons pledge),宣誓不参与致命性自主武器系统(LAWS)的开发、研制工作。这也是学界针对“杀人机器人”最大规模的一次集体发声。


来源 | Future of Life Institute、the verge等

编译 | 吴非



军方加速研发Vs学界反对


在AI的众多应用场景中,军事领域显然最具争议。在联合国于2013年发表的一份报告中,南非比勒陀利亚大学的法学教授Christof Heyns就指出,LAWS已经在一些国家(如美国、英国、以色列、韩国等)的军方实验室诞生。这时人们意识到,上个世纪科幻小说、电影中的杀人机器人,已经走入现实世界。


致命性自主武器系统,是能够在没有人的情况下,自主完成寻找目标、定位、击杀敌人这一整套工作的AI系统。只要将其派上战场,它们将自主辨别敌人并完成杀戮。也就是说,他人生死的决定权,全权交付给了机器人。这不禁引发众人的担心:如果LAWS发生故障失控,或是受到某些人的恶意操纵,可能会导致无法控制的灾难性后果。


感到担忧的不仅是普通民众,一些AI、科学界领袖也站在反对研发LAWS的队列中。2015年,斯蒂芬·霍金、埃隆·马斯克等千余名AI学者及科学家就向联合国提交联名公开信,警示LAWS军备竞赛的风险,并倡议颁布相关禁令。


在多方呼吁下,各国政府也开始严肃讨论LAWS的威胁。2016年12月,在联合国的《常规武器公约》审议大会上,LAWS首次被纳入讨论范围。而在今年4月举行的最近一次会议上,包括中国在内的26国发表联合声明,支持对LAWS颁布禁令。这一禁令已有先例:此前,出于人道、伦理原因及潜在的危害性,联合国已经对生物武器、化学武器及太空武器颁布禁令。不过,正式的LAWS国际公约诞生仍需时日。


在LAWS的国际公约尚未成型的情况下,多个国家仍在加速LAWS的研发。今年4月,LAWS就再次陷入舆论漩涡。超过50位顶尖人工智能学者就联名抵制韩国科学技术院(KAIST),起因是后者于今年年初与韩国国防公司Hanwha Systems合作建立国防和人工智能融合研究中心,外界担忧KAIST可能会开发杀人机器人;与此同时,谷歌因参与美国国防部的MAVEN军事计划,遭到3000多名员工的联名抗议。


在这种情况下,2000多名AI学者在今天表明了自己的态度:LAWS的研发及使用应当被严格禁止!


美国海军的机器人在训练中



2000位学者共同发声


这份宣言由生命未来研究所(Future of Life Institute)牵头,这家位于波士顿的研究机构旨在降低人类的存在风险(existential risk)。共有来自90个国家的2400多名AI学者签署了这份宣言,他们分属160多家AI企业或机构。


其中最具代表性的人物当属Elon Musk。Musk始终是LAWS坚定的反对者。此前他也一再强调,AI是人类最大的“存在威胁”,我们必须在AI真正威胁到人类之前,就建立前瞻性的规范。


宣言签署者还包括谷歌DeepMind的共同创始人Shane Legg、Mustafa Suleyman、Demis Hassabis;Skype创始人Jaan Tallinn;全球顶尖AI学者Stuart Russell、Yoshua Bengio、Jürgen Schmidhuber等。


宣言指出,LAWS会“在不受人类干涉的情况下,选择目标并实施攻击”,这会带来道德及实际层面的双重威胁:一方面,人类生命的决定权“决不能交给机器”;此外,此类武器的扩散将“对于所有国家、个人造成极大的威胁”。


麻省理工大学的著名物理学家Max Tegmark是生命未来研究所的主席,他也是此次宣言的发起者。Tegmark说道:“我很乐于看到,AI领袖开始从言语转向实际行动。AI拥有巨大的潜能,它能让世界变得更好,但我们必须要注意避免被滥用。自主决定人类生与死的武器和生物武器一样令人厌恶且极具破坏性,因此两者理应受到同等对待。”


发起对KAIST抵制的新南威尔士大学教授Toby Walsh也参与了这份宣言的签订。“如果有人铁心要研发自主武器,我们根本无法阻拦,正如一些秘密研制化学武器的研究者,”Walsh说,“没有人希望恐怖分子能轻易得到这些武器,因此我们必须确保军火商不会公开售卖它们。”


今年8月,LAWS将再次成为联合国各国讨论的议题。宣言签署者希望,他们的行动能促进立法者颁布正式的国际协议。


而在此之前,参与者相信他们的努力也并非一无所获。在前面的案例中,谷歌在受到员工的联名抗议后数周发布新的研究指导方针,承诺不参与AI武器的研发;KAIST的院长也在事后做出类似的承诺。



宣言全文翻译如下:

人工智能随时准备着在军事领域扮演更重要的角色。因此,怎样界定可接受的AI使用范围,成为普通民众、决策者和领袖所面临的紧迫任务。


我们认同的是,人类个体生死的决定权,决不能交给机器。这一方面是出于道德层面的考虑,“掌控他人生死”这件让人产生负罪感的事,绝不能由没有感情的机器做出。


另一方面,是强有力的实际因素:不受人类干涉、自主选择攻击目标的致命性自主武器,对于所有国家、个人而言都是极大的威胁。数千名AI学者一致认为,LAWS使得剥夺他人生命这一过程中的风险、可归责性与难度不复存在,它们将成为暴力活动中的强大工具,尤其当其与监控、数据系统相结合时。


此外,致命性自主武器的特征不同于核武器、化学武器及生物武器,研发团队可以单方开启军备竞赛,而国际社会缺乏实行管制的技术手段。谴责并避免这场军备竞赛,是维护全球安全的优先考虑事项。


我们呼吁各国政府及首脑为了地球的未来,共同商议抵制LAWS的国际规范、法律。我们这些未参与LAWS的人,需要以更高标准要求自己:我们绝不参与或支持LAWS的发展、生产、贸易与使用。我们呼吁科技企业、组织及其领袖、决策者与其他民众,共同履行该承诺。



本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
学者:《禁止致命自主武器宣言》LETHAL AUTONOMOUS WEAPONS PLEDG
人工智能:造成可怖未来的是人类
美国陆军战争学院出版社发布报告《提高多领域作战的认知性能》
杀人机器人军备竞赛后果堪忧
美俄坚决反对!联合国全面禁止AI自主武器正式谈判无果而终!
“围剿”杀人机器人,周志华、Hinton等57位学界大牛出手了
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服