打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
霍金、马斯克为人工智能立23条军规,不得伤害人类!

著名科幻作家阿西莫夫在其作品中为机器人制定了三大法则,已经超越科幻成为人们心目中机器人应该遵守的不二法则。随着人工智能的迅猛发展,机器在未来几十年内可能会达到人类的智能水平,已被许多科学家认为是不可避免的趋势。一旦达到这一点,机器人就可以改造自己,并创建其它同类,甚至制造出被称为超级智能的更强大AI。如何确保机器人为人类利益服务,而不是像电影《终结者》里一样,将人类文明终结,已经不再是科幻作品里的纸上谈兵,而是必须纳入议事日程的重要课题。

2017年1月,在加利福尼亚州阿西洛马举行的Beneficial AI会议上,特斯拉CEO埃隆·马斯克、DeepMind创始人戴米斯·哈萨比斯以及近千名人工智能和机器人领域的专家,联合签署了阿西洛马人工智能23条原则,呼吁全世界在发展人工智能的同时严格遵守这些原则,共同保障人类未来的利益和安全。著名物理学家霍金和马斯克在本周公开声明支持这一系列原则,以确保拥有自主意识的机器保持安全,并以人类的最佳利益行事。

阿西洛马AI原则分为三大类23条。第一类为科研问题,共5条,包括研究目标、经费、政策、文化及竞争等;第二类为伦理价值,共13条,包括AI开发中的安全、责任、价值观等;第三类为长期问题,共5条,旨在应对AI造成的灾难性风险。

对比阿西莫夫的机器人三大法则:第一法则,机器人不得伤害人类,或因不作为使人类受到伤害;第二法则,除非违背第一法则,机器人必须服从人类的命令;第三法则,在不违背第一及第二法则下,机器人必须保护自己。我们可以发现,虽然阿西洛马AI23原则没有阿西莫夫机器人三原则简洁明了,但它是人类进入人工智能时代的重要宣言,是指导人类开发安全AI的重要指南,受到了AI行业的广泛支持。

但危机仍然存在,未来仍不确定,马斯克在会议发言中说,我们正在走向超级智能,也有可能终结人类文明。当计算机开始自己做决定,我们如何才能确保它们与人类的价值观相一致?此前我们已经看到了机器在学习中的偏见,微软的聊天机器人chatbot曾发表种族言论,特斯拉的汽车AI造成致命事故。墨菲定律说,任何一个事件,只要具有大于零的概率,它就必定会发生。我们或许也可以说,一个受控制的系统,不管如何控制,最后终会崩溃。人工智能会是这样吗?天网已经启动了吗?文明终将面临最后的裁决,胜,则荣,败,则灭!在卡达尔肖夫的宇宙文明等级理论中,人类一旦发展到II类文明,就没有任何灾难能造成文明的灭绝,希望我们可以通过阿西洛马AI23原则,迎来人类文明发展的终极胜利。

阿西洛马人工智能原则原文:https://futureoflife.org/ai-principles/

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
未来100年内人类与机器人战争将无法避免?
霍金惊天预言:“人类地球生活仅剩100年!”
凤凰知道150703:人类和机器人,谁才是未来的统治者?
霍金预言成真!最新Al机器人问世,让人不寒而栗
霍金预言成真!马斯克宣布大脑放置芯片实验成功,生化人要来了
世界第一个获“人类国籍”的机器人,最近说想要小孩了!
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服