打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
江晓原:警惕人工智能的五条论纲


吴国盛   田松   董洁林    主编
科学 ● 历史 ● 文化 ● 人类



江晓原


江晓原

上海交通大学讲席教授,科学史与科学文化研究院院长。天体物理专业曾将他训练成一个科学主义者,但科学史专业使他成了国内最活跃的“反科学文化人”之一。

田松导读

人狗大战引发了新一轮关于人工智能的热潮,在当下的语境里,技术要进步是不言而喻,不言自明的,人们唯恐进步不够快,人们关心哪家更快。作为科学史学家,江晓原教授反其道而行之,提出警惕人工智能,限制人工智能,并提出一个终极问题:为什么我们需要人工智能?此问大有梭罗之风,当初大西洋海底电缆铺就,新旧英格兰可以通电话了,梭罗不以为然,问:他们有什么可说的呢?中国古语云:非礼勿视,非礼勿听。不该知道的就不要去知道。好奇心并不具有绝对的正当性,相反,却经常害死猫。科学史家要告诫的是:人类需要更多的自我节制,而不是一味升级。




◆  ◆  ◆  ◆  ◆  


人工智能的话题,最近因谷歌公司一场成功的商业炒作——围棋人机大战——而再次大热起来,引发了新一轮关于人工智能的争议。各种不同看法纷纷表达,其中既有天真糊涂的想法,也有居心难测的说法。为了厘清思路,笔者认为我们有必要就下面五个问题进行认真思考——如果不赞成笔者的意见,也欢迎就这五个问题进行深入讨论。

一、“老虎还小”不构成养虎的理由

当人们表达对人工智能将来失控或危害人类的担忧时,经常见到人工智能业界人士,或是对科学技术盲目崇拜盲目乐观的科学主义人士,出来向公众说:人工智能目前还很初级很弱小,所以不必忧虑云云。这种说法常见于媒体,其实背后暗含着荒谬的逻辑。

我们担心老虎吃人,所以有“养虎遗患”的成语,怎么能用“老虎还小”作为养虎的理由呢?要说服人们同意养虎,必须论证“老虎不会吃人”。人们担忧的是人工智能未来对人类的危害,要打消这个担忧,就必须论证“人工智能不会危害人类”,而不能将“人工智能还很初级”作为理由。

先不忙取笑这条荒谬的理由,因为许多人工智能的业界大佬和知名人物,都曾向公众说过这条理由。当史蒂芬·霍金、比尔·盖茨和伊隆·马斯克这样的智者领衔呼吁世人警惕人工智能的盲目研发时,一位业界知名人物就拿这条理由来反驳,还说这三人是“愚蠢的”,不知道究竟是谁愚蠢。

如果我们无法论证“人工智能不会危害人类”,那就有必要重新考虑我们目前是否应该发展人工智能。

二、“人造的东西不可能超过人”是盲目信念

当然,人工智能通常都是智商比较高的人玩的,智力上的荣誉感,会使他们中的许多人羞于用“老虎还小”来说服人们同意养虎,他们知道应该论证“老虎不会吃人”——就是论证“人工智能不会危害人类”。而进行这样的论证时常用的理由之一,就是“人造的东西不可能超过人”。尽管这条理由其实也不能带来多少智力上的荣誉,因为很多非专业的公众也是这么想的。

但是有谁给出过关于“人造的东西不可能超过人”这一论断的令人信服的论证吗?

从来没有。

事实上,这一论断只是一个盲目的信念。这个信念实际上是在坚信:造物主一定比所造之物高明。这样的信念显然和宗教情怀有关。但是到了人工智能的争议中,那些理应最具无神论精神的科学主义者,却不假思索地从宗教信念中寻求思想资源。

而且,这个信念明显违背常识。

一个简单的常识是,父母可不可以视为孩子的造物主?如果可以(至少在相当程度上可以吧),那孩子超过父母的情形,难道我们没见过吗?

三、人工智能未必服从人类设定的道德标准

比起前面两条理由来,“人类可以设定人工智能的道德标准”这条理由看起来相对比较专业,至少不会给玩人工智能的高智商人士直接带来羞愧之感。这一条也是论证“人工智能不会危害人类”时常用的理由。

但是有谁给出过关于“人工智能必然会服从人类设定的道德标准”这一论断的令人信服的论证吗?

同样从来没有。

更不幸的是,这一条也明显违背常识。

一个明显的常识是:人类无法避免自己的一部分后代学坏。这样的例子我们日常生活中天天都在上演:父母从孩子记事起就向他灌输诚信、仁爱、友好、慷慨、勇敢等等等等的美德,这些难道不等于对人工智能的“记忆植入”和道德设定吗?可是仍然有孩子无可救药地学坏了。在这些孩子学坏的过程中,父母为他们设定的道德标准、学校对他进行的规训矫正,都无法制止他们。

学坏的孩子们当然已经严重危害过一部分人类,比如这些坏人的刑事犯罪。但为何他们尚未统治全人类或危害人类整体呢?那是因为他们毕竟只是凡人,他们的能力毕竟有限。然而人工智能追求的是什么境界?不弄出“超人”来,科学家肯罢手吗?

四、人工智能与互联网结合的可怕前景

有的专业人士将人工智能分为四个级别:

1、没有学习能力(智能程度也可以相当高)。2、具有固定的学习能力,而且习得的技能会趋于一个定值。3、具有固定的学习能力,技能增长没有极限,但因为它的学习能力是事先设定的,所以被认为不会成长为超级人工智能。4、具有无限的学习能力,可以成长为超级人工智能。

专业人士安慰我们说,此次与李世石对战的AlphaGo只是第2级的人工智能,而第4级的人工智能还远远没有问世。其实这里除了前面已经讨论过的“老虎还小”之谬,还有更大的危险存在。

专业人士在试图打消公众对人工智能的忧虑时,经常提到一个说法:我们可以“拔掉电源”。这个说法,当对人工智能的想象停留在个体机器人阶段时,也许是成立的。更一般的说法可以是:只要人工智能还依赖有形的伺服机构才能实施行动,那我们也许还可以“拔掉电源”。但如今的现实情形是:人工智能一旦与互联网结合,借用如今高度发达的定制、物流、快递等社会服务,它几乎已经可以完全摆脱对所有伺服机构的依赖。这一点不仅在大量幻想作品中已经反复上演,而且在现实生活中也已经可以顺利实施。当人工智能只是一个网上幽灵时,没有机体,没有形态,还谈得到什么“拔掉电源”呢?

以前阿西莫夫——提出“机器人三定律”的人——曾论证过个体机器人智能的物理极限,那有一定道理,但他那个时代没有互联网。如今我们必须特别关注人工智能和互联网的结合,即使就个体机器人而言,这种结合也将快速突破智能的物理极限;就无形的人工智能而言则有更大的危险性,一旦和互联网结合,上述1234级人工智能之间的界限还能不能存在?如果居心叵测的人工智能研发者,有意突破这些界限,社会如何监控?人工智能进化成超级人工智能可能只需弹指一挥间,到时人类将措手不及,完全无法掌控。

五、我们究竟为什么需要人工智能

这是一个带有终极性质的问题。我们必须想清楚:我们究竟为什么需要人工智能?

工厂生产线需要更多工人吗?社会服务需要更多人手吗?需要人工智能为我们开车吗?需要人工智能为我们做手术吗?……这些都是在想象人工智能应用前景时经常被提到的,但是都没有仔细推敲过——对于这些工作而言,人工智能真的是必不可少的吗?

科学技术和资本结合之后的特征之一,就是为资本增值服务。但是科学家们很少会坦白说出来,他们总是对公众说,他们是为了“发展科学”。仿佛“发展科学”就是终极目的,为了“发展科学”,一切别的事情,哪怕是人类的安危,都不必考虑了。

当然,还有另外的需求,比如利用人工智能打赢战争。这就和利用核武器打赢战争一样了。马克斯认为人工智能会“唤出恶魔”,比核武器对人类的威胁还大;霍金则明确断言:“彻底开发人工智能可能导致人类灭亡。”他们的话值得深思。田松教授有名言曰:“警惕科学!警惕科学家!”在人工智能问题上,真该三复斯言。

今天我们即使不得不研发人工智能,也应该抱着和美国当年搞“曼哈顿工程”或我们当年搞“两弹一星”类似的心态来进行。更理想的局面,则是各大国坐下来谈判,签署一个禁止或至少限制研发人工智能的国际协议,这才是人类之福。

 

原文刊载于《上海观察》,2016315日。

(江晓原_新浪博客http://blog.sina.com.cn/jiangxiaoyuan

  


责任编辑  刘小编

本文来自科学的历程  转载请联系本公众号




科学 ● 历史 ● 文化 ● 人类
今天,我们关注人类自身!

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
尊崇科学,反对“科学”霸权主义(10)江晓原、刘兵:科学的越位
#江晓原 #教授 #人工智能 未来人工智能会取代人类吗?你怎么看?
对话郑军:国内外的科幻作家为什么总爱反科学?
放弃,可以找到一百个理由;坚持,只需要一个信念
田松 | 人需要知道自己在哪儿
三年级想象作文:老虎的悲哀
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服