打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
从银翼杀手到机器公民索菲亚,自顾不暇的人类该赋予机器人人权吗?

你一定知道她的名字,索菲亚,第一位拥有人类公民身份的机器人。对了,最近她又成为了王力宏的老婆。她频繁出现,让我们不得不严肃认真地聊一聊要不要给予机器人人权这个问题。

《银翼杀手》(Blade Runner)、《真实的人类》(Humans)、《西部世界》(Westworld)这些科幻影视剧中有极为先进的机器人,但他们却不享有任何权利。

透过这些作品,我们看到人类的行为不仅伤害了机器人,还贬低了人类这个物种本身。我们愿意相信,我们会在机器人时代到来时做正确的事,让那些智能机器人享有更多的尊严和尊重。

随着机器人和人工智能技术不断取得进步,我们越来越接近那一天,即先进的机器在方方面面都具备向人看齐甚至超越人类的能力,包括智慧、意识和情感。如果到了那一天,我们将必须判定这些实体是否是权利人,以及它们是否——和在什么时候——应该得到与人类同样的权利、自由和保护。

我们采访了伦理学家、社会学家、法律专家、神经科学家和人工智能理论家,他们对这个复杂且具有挑战性的想法持有不同的观点。看起来,真要到了那个时候,我们不太可能取得完全的一致。

以下就是他们争论的一些内容:

首先,为什么要赋予人工智能权利?

《机器纪元》剧照

研究表明,我们已经认为机器人具有道德责任,而且当机器人看起来栩栩如生时,我们还会对它们产生移情作用。机器人越是智能和逼真,我们就越是希望相信它们跟我们一样——即使它们跟我们不一样,或者说还没有到那种程度。

但是,一旦机器人拥有了基础的人类能力,我们将有义务把它们视为同等的权利人,而不仅仅是所有物。这其中最难的地方在于,确定哪些认知门槛或特质能让一个实体拥有道德关怀的资格,继而使之享有社会权利。对于这个问题,哲学家和伦理学家已经思考了几千年。

道德标准中三个最重要的门槛是感受痛苦的能力,自我意识,以及成为负责任道德行为者的能力,”社会学家和未来学家詹姆斯·休斯(James Hughes)说,他是伦理和新兴技术研究所(IEET)的执行理事。

“在人类身上,如果我们幸运的话,这些特质是顺序发展出来的。但就机器智能而言,我们有可能看到一个没有自我意识的机器好公民,或者一个有自我意识但却体验不到快乐和痛苦的机器人,”休斯说道,“我们需要搞清楚是否真是如此。”

需要指出的是,智能跟知觉(即感知或感觉事物的能力)、意识(即对自身和环境的认知)以及自我意识(即对前一种意识的认知)不是一回事。机器或算法可能跟人一样聪明(甚至更聪明),但它们仍然缺乏这些重要的能力。

《西部世界》剧照

计算器、Siri和股票交易算法都是聪明的,但它们没有自我意识,它们无法感知情感,也不能拥有任何知觉,比如看到红颜色或是尝到爆米花的味道。

休斯认为,自我意识自带一些最低限度的公民权利,比如不成为附属品的权利,以及生命、自由和成长受到尊重的权利。有了自我意识和道德能力(即分辨对错的能力,至少是按照时下的道德标准),一个实体就应该享有成年人的完整公民权利。

谁能成为“权利人”?

《真实的人类》剧照

并非所有的权利人都是人类。加州州立大学蒙特利湾分校(CSUMB)的生物伦理学家琳达·麦克唐纳-格伦(Linda MacDonald-Glenn)表示,法律已经开始把非人类视为权利人了。这是一项重要的进展,因为我们建立的这些先例可以为在未来赋予人工智能人权铺平道路。

在美国等地方,还有人主张应该向某些动物(比如大猩猩、大象、鲸鱼和海豚)授予人格权利,以保护它们免受不适当的拘禁、实验和虐待等等。这些倡导者对“人格”的定义提出了新的阐述,认为人格是基于特定认知能力的存在,比如自我意识。

麦克唐纳-格伦表示,我们要拒绝强调类人理性的守旧观点,因为按照那种观点来看,动物以及依逻辑推演的机器人和人工智能,都只是“没有灵魂的机器”。

《银翼杀手》剧照

她认为,情感并非一种奢饰品,而是理性思维和正常社会行为的重要组成部分。在确认谁以及什么拥有道德关怀的资格时,这些特质是重要的因素,而不仅仅是运算能力。

事实上,证明动物拥有情感能力的科学证据正在不断增加。针对海豚和鲸鱼展开的研究表明,它们能够体验到悲伤;与此同时,海豚和鲸鱼还拥有纺锤体神经元(这种神经元可以促进大脑中的交流,并让复杂的社会行为成为可能),这意味着它们能够拥有同理心。

未来,产生意识的人工智能也可能具备类似的情感能力,那将大大提升它们的道德地位。

机器能够产生意识吗?

《西部世界》剧照

然而,并不是所有人都认同人权适用于非人类,即便它们展示出情感和自我反省行为这样的类人能力。有些思想家认为,只应该允许人类参与社会契约。

美国律师、作家、发现研究所人类例外主义中心(Center of Human Exceptionalism)的高级研究员韦斯利·史密斯(Wesley J. Smith)表示,我们人类自己都还没有实现普遍的人权,现在就开始为给予机器人权利而操心实在为时过早。

“任何机器都不应该被认定为权利人,”史密斯说道,“即使是最复杂精密的机器,它也只是一台机器。它不是生物,不是有机体,它只是自身程序的总和,不管程序是由人类,由另一台计算机,还是由它自己编制的。”

史密斯认为,只有人类和人类结成的组织才应该被认定为权利人。

史密斯的分析中隐含了这样一个假设,即人类或就此而论的生物有机体,拥有某种机器永远无法实现的特质。在以前的时代,这种缺失的“特质”被认为是灵魂、精神,或者某种难以捉摸的生命力量。

《超能查派》剧照

时至今日,这种被称为生命主义的观点在很大程度上已经被功能主义(基于计算能力)所取代,后者认为我们的大脑并无任何超自然现象。然而,认为机器将永远无法像人类那样思考或体验自我意识,这样的想法如今仍然存在,甚至在科学家中间也是一样。这反映的事实是,我们对“意识”的生物基础理解仍然非常有限。

埃默里大学伦理学研究中心的神经科学和行为生物学高级讲师洛里·马里诺(Lori Marino)表示,机器可能永远无法享有与人类相当的权利,或就此而论的任何权利。

她说其中的原因在于,一些神经科学家,比如安东尼奥·达马西奥(Antonio Damasio),提出理论称,知觉能力跟这样一件事有关,即一个实体的神经系统是否由电压门控离子通道的存在来决定——马里诺将其描述为,神经系统内带正电的离子跨越细胞膜的运动。

“这种神经传递可见于最简单的生物体、原生生物和细菌,正是这种机制演化出了神经元,然后是神经系统,再然后是大脑,”马里诺说道,“相比之下,机器人和所有人工智能目前都是以负离子的运动为基础的。所以,整个机制并不一样。”

马里诺表示,根据这个逻辑,即使一只水母也要比任何复杂的机器人拥有更多的知觉。

“我不知道这个想法是否正确,但它是一种有趣的可能,值得加以验证,”马里诺说,“因为我们确实可以感觉到,作为‘活的有机体’存在与非常复杂的机器不同。

《机器纪元》剧照

来自亚利桑那大学的麻醉学和心理学教授斯图尔特·哈梅罗夫(Stuart Hameroff)也认为,意识天然不基于计算能力。他提出,意识是宇宙一个基本的和不可约的特性(这种观点被称为泛心论)。根据这种思路,只有那些由生物物质组成的大脑才具有真正的主体性和内省能力。

我们的确不知道知觉和意识是如何在大脑中产生的,但一个简单的事实是,它们的确产生自大脑。基于这个事实,我们的认知必须遵守物理学规律。我们可能无法用由1和0组成的数据流复制意识,但这并不意味着我们最终不会超越当前被称为“冯·诺伊曼结构”(Von Neumann architecture)的计算范式,也不意味着我们无法创造出一种混合型人工智能系统,结合生物组件来产生人工意识。

电影《感官游戏》(eXistenZ)中的生物控制器

神经科学家、麻省理工学院媒体实验室副教授艾德·博伊登(Ed Boyden)表示,现在提出这样的问题还为时尚早。

我不认为我们对意识已经有了一个可操作的定义,也就是从我们可以直接测量或创造它的意义而言,”博伊登说道,“从技术上讲,你甚至不知道我有没有意识,对吧?因此,从目前来说,我们很难评估机器是否,或者能否,拥有意识。”

博伊登认为,并没有确凿证据表明我们无法在替代性基质(比如一台计算机)中复制意识,但他承认,对于要在一个模拟大脑中复制哪些重要东西,人们是有分歧的。“我们可能还要做多得多的工作,才能明白关键是什么,”他说道。

我们如何探查机器的意识?

《西部世界》剧照

让机器具有意识是一回事,探查机器人或者AI的意识则完全是另一回事。阿兰·图灵等科学家在几十年前就意识到了这一点,他们提出用口头测试来区分电脑和真人。但问题在于,现在的AI程序已经可以在聊天测试中骗过人类,所以我们需要更加复杂的测试。

“识别机器智能的人格被‘哲学僵尸’的问题复杂化,”休斯说,“换句话讲,机器可能非常善于模仿人类的交流和思想,但实际上并没有内在的自我意识。”

两个Google Home彼此交谈

不久前就出现了一个很好的例子。两个Google Home智能设备展开了一场长时间的对话,整个过程在网上播出。虽然这两个机器人的自我意识水平和石头没有什么区别,但它们之间的交谈时而紧张,时而热烈,如同人在说话一般。随着时间的推移,AI和人类只会变得越来越难以区分。

休斯说,一个可能的解决办法是不仅追踪人工智能系统的行为(图灵测试),还追踪系统的内部复杂性,就像朱利奥·托诺尼(Giulio Tononi)在《意识的整合信息理论》中提出的那样。托诺尼说,在衡量系统的数学复杂性时,我们可以采用一个叫做“PHI”的指标。从理论上来说,这个指标对应着知觉和意识的不同临界值,使我们能够探查机器意识的存在和强度。

按照托诺尼的理论,不像人类那样行事或思考、但却以正确方式触发PHI测量的系统也可以认定为具有意识。如果托诺尼是对的,我们可以利用PHI来确保AI不仅行为举止像人,而且真正拥有内在的人类意识体验。

我们应该给予机器什么权利?哪些机器应该得到哪些权利?

《银翼杀手》剧照

有朝一日,一个机器人将站在我们面前,要求获得人权。但这并不意味着它就应当享有人权。

如上文所述,它可能只是一个依照程序代码行事的“僵尸”,想骗我们给它某些特权。我们必须对此非常谨慎,以免把人权授予没有意识的机器。我们只有在知道如何衡量机器的“大脑状态”和如何评估意识之后,才能开始考虑那台机器应不应该获得某些权利和保护。

幸好,这一时刻可能将分成几个迭代阶段。起初,AI开发人员将创造基本的机器智能,模仿虫子、老鼠、兔子等等。接着,这些有知觉的东西将超越它们仅仅作为互动对象的身份,变成应当得到道德关怀的主体。这并不意味着那些简单的模仿物应当得到和人类一样的权利,而是它们将得到保护,不被滥用和虐待。

机器人Sophia

最后,基于计算机的虚拟人脑将出现。到这个阶段,我们也应该而且必须具备探查机器意识的能力。如果说我们的创造物诞生了“意识”,而我们却没有意识到这一点,无论如何这都是件让人害怕的事情。

机器人或者AI在被证明拥有这些基本能力后,还需要通过人格测试这一关,才能成为拥有权利的个体。在何为人的问题上,大家看法不一,但标准的衡量指标包括最低限度的智力、自我控制、过去和未来感、关心他人和控制自身存在的能力(也就是自由意志)。

只有达到这种程度的复杂性,机器才有资格获得人权。除此之外,机器人或者AI还需要一些符合其特殊属性的保护:

  • 不在违背其意愿的情况下被关闭的权利

  • 完全和无阻碍地访问自身源代码的权利

  • 不在违背其意愿的情况下操纵其源代码的权利

  • 复制(或者不复制)自己的权利

  • 隐私权(亦即隐藏自身内在心理状态的权利)

在某些情况下,一台机器不会主动要求获得权利,所以人类(或者其他的非人类公民)必须替它争取权利。AI或者机器人不必在智力或道德上做到完美无瑕,照样应当获得相当于人类的权利。这适用于人类,所以也应该适用于有意识的机器。

智能是混乱的。人类的行为常常是随机的,不可预测、混乱无序、充满矛盾,也缺乏理性。我们的大脑远远称不上完美,我们也必须体谅AI的类似行为。

同时,有意识的机器就像负有义务的人类公民一样,仍然需要遵守国家法律和社会规范。至少,如果它们想加入我们成为完全自主的个体,就必须这么做。

如果我们不呢?

当机器的复杂性跨过某个门槛之后,我们将无法再把它们排除在社会、机构和法律之外。我们将没有理由拒绝赋予它们人权,否则就等同于歧视和奴役。

另外,赋予AI权利会成为一个重要的先例。如果我们平等地对待AI,这会大大有助于确保社会凝聚力和维护正义感,不然可能导致社会动乱,甚至AI攻击人类。考虑到机器智能超越人类能力的可能性,这将是一场可怕的灾难。

重要的是,尊重机器人的权利也有助于保护其他类型的新兴人类,比如半机械人,用外源DNA来改造自身基因的人,以及对自己大脑进行复制、数字化并上传至超级计算机的人。

我们还需要很长的时间才能创造出应当享有人权的机器,但考虑到事关重大(无论是对人工智能机器人还是对人类来说),我们应该早做打算。

翻译:何无鱼 于波

来源:Gizmodo

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
对话亚姆博尔斯基:让机器人相信人类是神!
智能机器人懂“人权”才更人道
当机器人有了意识,能否拥有权力甚至与人类平起平坐?
哲学将面临一次颠覆性的挑战?
连线杂志:如何造一个有自我意识的机器人?
深度长文:如何制造具有自我意识、无限接近人类的的机器人?
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服