打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
霍金、马斯克提醒人们关注人工智能威胁

霍金、马斯克提醒人们关注人工智能威胁

 201501121658 来源:eNet硅谷动力

            
 

今天下午,物理学家和宇宙学家霍金、特斯拉及Space X创始人马斯克等百余名位科学家、企业家、投资者联名签署了一封公开信,提醒人们关注人工智能的安全性和社会效益,让人工智能按照人类的意愿工作,在规避潜在威胁的同时从中获益。未来人工智能必将无处不在,所以其安全性就显得十分重要,不禁让人思考是否应该将阿西莫夫的“机器人三定律”以立法的形式确定下来以防不法之徒利用机器人伤害人类。

 

 

1942年,阿西莫夫在短篇小说"Runaround"(《环舞》)中首次提出了三定律:

内容如下:  
.机器人不得伤害人,也不得见人受到伤害而袖手旁观  
.机器人应服从人的一切命令,但不得违反第一定律  
.机器人应保护自身的安全,但不得违反第一、第二定律  

以后又加了个第零定律,机器人必须保护人类的整体利益不受伤害。

 

阿西莫夫机器人三大定律已不适用?有待更新。

 

来自: 宇镭(已到魔都,寻组织) 2009-08-24 15:58:29

 

据国外媒体报道,AI研究员最新研究指出,艾萨克-阿西莫夫的机器人三大定律已不适用,将有待更新。机器人三大定律是: 第一、机器人不得伤害人类,或看到人类受到伤害而袖手旁观;第二、在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;第三、在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。 

大卫·伍兹,一位俄亥俄州立大学的系统工程师,提倡更新这三大定律以认清机器人现在的缺陷。?宇宙?杂志(Space magazine)引用了他的观点。 

伍兹认为,问题不在于机器人,而在于制造它们的人类。他说,真正的危险在于人类迫使机器人的行为超出了它们的判断决策力。 

伍兹和他的同事,德州A&M大学的机器人专家罗宾·墨菲,提出修正机器人三大定律来强调人类对机器人的责任。他们认为在三大定律中应该明确的是,在人-机关系中的应该是智慧的、有责任感的。 

他们提出的新三大定律是:

第一,人类给予机器人的工作系统应该符合最合法和职业化的安全与道德标准;

第二,机器人必须对人类命令做出反应,但只能对特定人类的某种命令做出反应;

第三,在不违反第一定律和第二定律的前提下,当人类和机器人判断决策力之间的控制能顺利转换时,机器人对其自身的保护应有一定的自主性。 

虽然这可能会导致天网(译者注:参见电影?终结者?)的出现,但也意味着,一辆机器人控制的汽车不会开向险崖,也不会出现突然的猛烈转弯。 

伍兹说,许多有关于机器人更危险的预测是于机器人软件开发者们的想法造成的,这些人不了解制作软件的危险,而当他们的机器人变得像?银河系漫游指南?中的一样(译者注:应该是指小说中的机器人马文,患有忧郁症),他们也不愿意承担这个责任。 

正如小说中所描绘的:它或者瘫痪,或者吵吵闹闹,或者一动起来就磨擦不停你可高兴不起来因为它吃了你的帽子,或者和你的猫咪做爱,或者把油洒在地板上,或者掀翻你的门。当它这么做时,你再也忍受不了了。 

 

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
机器人威胁人类 10大类工作未来恐被取代(转载)
霍金:人类在地球上生活的日子已经屈指可数了
如何让机器像人一样思考?
未来100年内人类与机器人战争将无法避免?
未来AI智能对人类的影响的利弊,原来影响这么大
Nature社论:人工智能威胁论绝非耸人听闻
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服