打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
点评 | 图灵奖得主Yann LeCun最新访谈:人工智能面临的三大挑战

原文摘要:

现在是 2022 年 1 月,LeCun 表示自己仍然没有看到猫级别的人工智能。他表示,尽管「只有」8 亿个神经元,但猫脑远远领先于任何巨大的人工神经网络。因此乍一看,关于通往高度发展的认知能力和人类智能长期规划途径的推测似乎毫无意义。

猫和人类智能的共同基础是对于世界的高度理解,基于对环境的抽象表示以形成的模型,擅长于预测行动及其后果。LeCun 认为,学习这种环境模型的能力是构建思考机器的关键。

在对目前行业和科研进展的分析后,LeCun 得出了 AI 研究面临的三大挑战:

AI 必须学会对于世界的表征;

AI 必须能以和基于梯度的学习兼容的方式,进行思考和规划;

AI 必须学习行动规划的分层表征。

LeCun 在自监督学习中找到了第一个挑战的解决方案,该方法已被用于训练语言模型、图像分析系统等。

LeCun 表示,人工智能系统可以从这些视频中理解世界的物理基础。它们的理解反过来将让系统具备多种能力(例如抓取物体或自动驾驶)的基础。

今天的 AI 可以轻松对图像进行分类并识别声音,但不能执行诸如推理不同对象之间的关系或预测人类运动等任务。这是无监督学习可以填补空白的地方。正如 LeCun 所说:「预测是智力的本质。」

解决第一个挑战为解决第二个挑战奠定了基础。与人工智能最初的研究不同的是:思维系统不应再由根据逻辑规则运行的符号系统和手动编程的世界知识组成。相反,必须使用和深度学习类似的方法让机器学会思考和规划。

LeCun 还没有解决第三个挑战的方法。他说:「要在现实世界中行动的人工智能系统,无论是机器人还是自动驾驶汽车,必须要能够预测每种行动的后果并选择最佳行动。在一些情况下,例如移动机械臂或控制火箭的任务上,我们已经实现了模型预测控制(MPC)。」

原文:图灵奖得主Yann LeCun最新访谈:人工智能面临的三大挑战

《人工智能大势》点评:

在前不久写的文章《点评 | 焦李成院士:进化优化与深度学习的思考》中,我刚对杨立昆(Yann LeCun)说的话大加赞赏,主要是称赞他最近的讲话与我2019年的文章有同样的观点,即造飞机不能完全按照鸟翅膀的生物机理去造,造人工智能也不能完全按照人脑的生理机能去造,杨立昆不愧是人工智能界最高水平的学者之一。

但是这次我恐怕要批评他了,因为他的话似乎有些矛盾。

智能的本质并不是预测,预测只是智能这种人脑基本能力的实际应用之一而已。

正如同样也是我前不久写的一篇文章,《点评 | 方向对了?MIT新研究:GPT-3和人类大脑处理语言方式惊人相似》 ,文中写到:

语言系统主要分两大部分,说(写)和听(读),你在说话时会预测自己接下来将要说什么吗?难道我说“我是……”,然后大脑里预测下,我接下来要说什么呢?人、狗,还是其它什么?嗯,可能很大概率是“人”,好吧,那就说“我是人”,再然后呢,我接下来还会说什么呢……

 你这专家是不是在搞笑啊?

 即使有时说话会选择后面说什么,那也是在已有答案中思考选择哪一个,与对未知的预测完全是两码事。

 诚然,我们在说话时也会做一些预测,比如预测听者的反应,但这是对行为结果的预测,我们在做任何事时都可能进行类似预测,这和语言系统本身的预测也是两码事。而且这并不是必须的,有些人或你在有些时候,可能只顾自己说,而不会去在意对方的反应,也就是说没有这种预测,并不会给语言带来根本性的问题。

 我们的语言系统什么时候会做预测呢?听的时候。当我们在听别人说话时,一般会根据他前面说的内容,预测后面可能会说什么,比如当你听见我说“今天晚上我请你……”,你一定会预测后面是“吃饭”。当然,根据更前面的对话(如果有的话),或者当时的情景,以及人的个性等,也可能预测看电影、唱K、洗脚等等。

 还有种有意思的情形你也一定遇到过,就是当你一句话说了一半时,突然大脑短路卡住了,后面的话一下说不出来,这时听你说话的人帮你把后面的话说了出来,即他正确预测了你后面要说的内容。

 所以,这确实说明用预测方式训练的神经网络模型进行自然语言处理过程中,在某些时候与人类大脑处理语言的方式是类似的,但要说以此证明人类的语言系统全部都是在做预测就很荒谬了。

由此可以看出,我们的大脑在很多时候确实是在做预测,但绝不应认为预测就是大脑思维的全部,当然也就更不是大脑智能的本质,而只是智能的一种表现形式。

那么什么是智能的本质呢?

杨立昆其实也已经说到了,那就是“理解”,对这个世界以及各种事物的理解,这才是智能的本质,即他说的:

猫和人类智能的共同基础是对于世界的高度理解……

很显然,预测是建立在理解基础之上的,没有理解,就不可能有预测。你看见别人手里拿着个馒头,如果你不理解馒头是用来充饥的,你就不会预测他接下来会把馒头吃了。

这种“理解”并非像他说的那么简单,不只是“基于对环境的抽象表示以形成的模型”,比如对蛋糕的理解,不只是形状、颜色、味道等,还包括它常常用来庆祝生日,以及上面有奶油、卡路里很高、不利于减肥、吃太多对健康不好,但小孩子都喜欢吃等等,且这种理解是随时随地不断在发展变化的,例如你可能刚听别人说而知道了蛋糕上的奶油有真假之分,把所有这些相关的信息综合在一起,才是对“蛋糕”一词的完整理解。

当然,你也可以说这些全部都包含在他所说的“模型”中,但我似乎看不出这点。

我上面说“没有理解,就不可能有预测”,其实也不完全对,准确说这是对人,而机器并非如此,正如杨立昆说他找到了“机器学会对于世界表征”的解决方案,即:

LeCun 在自监督学习中找到了第一个挑战的解决方案,该方法已被用于训练语言模型、图像分析系统等。

人工智能目前确实能在很大程度上进行较准确的预测,但它是基于大规模数据的统计。这种没有理解、通过机器学习所得到的预测能力就必须任何事情都要依靠大数据,而不能像人一样很多时候只需要小数据就可以达到目的。比如大人对小孩说:不要靠近外面的野狗,它们会咬你。那么小孩就明白了,这种明白就是基于对“咬”的理解,知道这会有什么后果,而不需要去反复尝试(获取大量数据)才能学会这一道理。

所以,杨立昆并没有真正找到第一个挑战的解决方案,只有解决了理解问题,才能算解决了第一个挑战。

他说“解决第一个挑战为解决第二个挑战奠定了基础”是正确的,不过解决第二个挑战,即思考和规划同样应基于对事物的理解,想必这没有什么疑问,故不是仅靠现在的深度学习就可以解决。但应依靠机器自己学习是正确的,“思维系统不应再由根据逻辑规则运行的符号系统和手动编程的世界知识组成”,即不应由人手动为机器输入知识,而应靠机器自己学习来获得相应知识,这一点同样也是毫无疑问。

杨立昆说“还没有解决第三个挑战的方法”,即没有解决“AI 必须学习行动规划的分层表征”,这完全在预料之中。所谓“行动规划的分层表征”,是指复杂的行动规划需要分成若干阶段,这对人类来说都不是一件轻而易举的事,机器如果没有对事物的理解,自然是不可能解决这一问题,甚至就如杨立昆所说,连方法都找不到。

而之所以我们“仍然没有看到猫级别的人工智能”,也就是因为机器还没有对事物的真正理解。

我们一定要建立一个观点,那就是“大数据很重要,但大数据并非一切”。或许理论上任何事都可以通过大量的数据统计来实现,但就如上面所说,很多事情是不能去试的,不能让小孩被狗咬了才能学会不能被狗咬,甚至需要无数次被狗咬才能学会就更加荒谬。在文章《点评 | 焦李成院士:进化优化与深度学习的思考》中我也表达了同样观点:

实际上这种方法到底能不能进化出高级智能也都未可知,因为人类的进化是一个非常痛苦的过程,伴随着无数灾难,并从这些灾难中学习,才进化到现在这个样子,难道也让机器人去经历那些灾难,包括各种冲突、战争等等?

这里所说的痛苦可不是一般的痛苦,灾难也不是普通灾难,往往都是灭顶之灾,稍有不慎,人类就可能灭亡了。

但如果机器有了对事物的理解能力,通过阅读、交流或轻微损伤等方式获取相关知识,能够知道被咬、灾难、战争等等会带来什么后果,那么这样的问题就迎刃而解了。

所以,归根到底就是要解决机器对事物的理解这一终极挑战。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
LeCun用62页论文公布未来十年研究计划:AI自主智能
思考总结10年,图灵奖得主Yann LeCun指明下一代AI方向:自主机器智能
【Quora直播】LeCun:深度学习突破,对抗式网络最值得期待
一图看懂 AI 阵营:学习人工智能,站错了队可会导致自取灭亡
独家 | AI教父Geoffery Hinton:我开发技术为什么现在让我如此害怕
讲真,你应该了解的机器学习40年发展史
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服