打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
ChatGPT智能系统的挑战与反思
userphoto

2023.03.10 河南

关注

  岁末年初以来,Open AI公司推出的文本检索和生成工具ChatGPT成为科技媒体的第一个热点。从普通公众的视角看,ChatGPT是1970年代以来一长串对话机器人中最新的一个——从《2001太空漫游》中的HAL9000,到亚马逊的Alexa和苹果的Siri。 但是,ChatGPT为何成为热门话题?除了商业上的理由以外,还与它更友好的交互界面和泛用性人工智能的特点相关联。凭借这一特点,ChatGPT得到了前所未有的广泛关注。与公众对它追捧相映成趣的是学界对它的理性拷问:ChatGPT是不是通用人工智能?ChatGPT的成功是新经验主义的一次胜利吗?智能系统是否需要掌握知识,掌握知识的标准是什么?相较于传统的机器学习,ChatGPT有什么优势和缺陷?弥补缺陷的路径是因果学习与深度学习等分支的深度融合吗?

  以下从四个方面回答上述问题:第一,ChatGPT的成功是新经验主义的一次胜利吗?
  我们知道,ChatGPT是一种基于深度学习技术的语言大模型,通过对大规模语料库的学习和预测,它能够实现一些自然语言处理的任务,如生成文本、文本分类、语言翻译等。虽然它在某些任务上表现得非常出色,甚至能够通过图灵测试,但它还不具有真正的智能。虽然它看起来很“逻辑”,甚至可以做因果推理,但聊天表现出来的一点儿因果推理能力,纯粹是来自人类语料库里已有的内容,并不是它的自主创新。实际上,ChatGPT并没有探索人脑结构和认知机制,它仍然是一种基于统计学习神经网络的黑箱模型,不能够解释其内部的工作机制。相对于传统的统计学习,虽然ChatGPT是一种非常有用的人工智能技术,但它远不是通用人工智能。尽管它具有一定的自注意能力,但它缺乏自主意识、情感和自主创造能力。尽管它能够实现某些复杂的任务,但它不具有人类智能的高度复杂性和多样性,不能像人脑一样进行跨领域、跨模态的学习和推理。日前,有多家媒体高调宣称ChatGPT的成功意味着新经验主义的胜利。而ChatGPT联结主义技术路线在自然语言理解方面取得的实践性成功,可以说是对符号主义规则导向智能系统的一种改进;但这种基于反馈的学习机制只是解决了经验论历来善于解决的问题,理论上的固有缺陷依然存在,所以不能说是新经验主义的胜利。
  回首过往,有趣的是,经验论传统的英语哲学界,在第二次世界大战之后,因风云际会反而成了强调分析性的演绎主义哲学大本营;而历来把先验必然性作为哲学圭臬的德语哲学界,却循着20世纪哲学家胡塞尔的思想脉络,试图用思辨来捍卫知识的直观性。这说明启蒙以来,经验主义与理性主义并不为哪个民族所独有,谁都有权为人类认识的发展作出贡献。在哲学史上,对立的思想往往是各领风骚几百年,至于人工智能这一依赖技术发展的领域,更迭的时间就更短。反观当下,基于经验主义的人工智能技术路线,在强调统计和概率的同时,不得不引入数理逻辑和数学的因素。实际上,纠正对立哲学传统偏颇的途径只能是从对立到相容,从互斥到互补,进而达到融通。(任晓明、李熙,《自我升级智能体的逻辑与认知问题》,《中国社会科学》2019(12))
  在这一方面,著名人工智能科学家朱迪亚·珀尔(Judia Pearl)的观点更具启发性。珀尔曾在因果推断和机器学习方面作出了重大贡献。不久前他对ChatGPT进行了实验并发文指出,ChatGPT 在推理过程中有两大局限:其一,ChatGPT 仅仅依赖于大量的文本数据进行预训练和微调,而缺乏对实际世界的直接观察和经验。这意味着ChatGPT无法进行控制实验,难以判断因果关系,由此会在完成任务时表现出不可靠性。其二,ChatGPT无法进行非单调推理。珀尔指出,ChatGPT会通过不断寻找例外来试图推断规律,但是会在某些情况下陷入困境,例如处理自指(self-referential)的语句时,ChatGPT会出现无限循环的情况。珀尔的研究提示我们:有可能引进因果结构模型研究,通过两种研究进路的互补形成功能-结构深度融合的智能系统。如可能结合其他先进技术,如知识图谱、计算机视觉、语音识别等,以实现更多的自然语言处理任务。通过研究ChatGPT的可解释性和透明度,可以更好地理解模型的行为和决策过程,并能够进行误差分析和改进,使ChatGPT能够与人类进行更加自然、流畅的对话,并能理解人类的情感和语义,进而实现更加智能化和更加人性化的结果。
  第二,智能系统是否需要掌握知识?从ChatGPT所代表的新一代智能系统的视角看“知识”,我们会对这一问题有新的认知。对于什么是知识,什么是知识标准的问题,无论是逻辑实证论的证实原则还是波普尔的可证伪性,作为科学知识划界标准都存在问题,而历史主义对于科学知识纲领的讨论还没有能够上升到定量阶段,虽然在学理上有重要的价值但无助于工程问题的解决。按照信息论之父克劳德·香农(Claode Shannon)的观点,知识可以定义为结构化的信息。对知识进行结构化,是构建知识图谱的基础,也是对语料库进行整理的第一步,因而抽取过程也就是筛选的过程本身是给定的,而不是智能系统训练而来的。由于结构化信息本身是由任务决定的,因此也就不存在通用的知识结构。例如,专注于人机对话的系统,包含的语法结构知识会更多;专注数学证明的系统,则需要尽可能多地包含逻辑表达式的运算。不难看出,ChatGPT这类智能系统不再追求任务的多样性,而是专注于解决特定问题,继承了专家系统的部分特点,它最大的优势在于不必再对模型进行反复训练,能够节省运算资源。而任务的专门性,又可以进一步细化有关知识的定义,即“知识是具有相对稳定性的结构化信息”。经由训练而来的这种人工智能系统,更像是一个死记硬背学习物理课本的学生,他知道每个问题的正确答案,前提是这个问题在书里出现过。这也是人们指责这种智能系统不会“创造”的原因之一!
  第三,ChatGPT是高科技剽窃吗?日前,著名语言学家乔姆斯基指责ChatGPT是“高科技剽窃”。这一观点虽有待商榷,但并非空穴来风。著名的开源代码托管服务GitHub截至2020年官方数据显示注册用户数量为4000万,项目数量为1亿。“开源”意味着这一平台上的绝大部分资源执行的是GNU、BSD等共享协议,使用者仅承担一般民事责任,所有者不受知识产权法律保护;这意味着AI可以无偿或以极低的成本取得这些公共领域的资源。ChatGPT声称自己作为开源项目,并没有直接使用任何一个代码托管平台的资源,这在技术上其实很好解决,只要将该模块的模型训练任务外包给一个商业公司就相当于间接地获得了授权。
  事实上,Open AI的成功的确依赖于互联网的开放性,只有一个开放且不断成长的公共领域才能在客观上保证语料库的丰富。但是随着欧盟《通用数据保护条例(GDPR)》、《数字服务法案(DSA)》、《数字市场法案(DMA)》的通过,全球数字服务企业的游戏规则将会发生改变。上述法律总体的立法倾向是,为互联网业务提供消费品市场水平的权益保护和市场监管。由于数字服务一般而言都是免费的,而平台企业的利润通常来自用户主动提供的“用户生成内容”(User Generated Content,UGC),这既包含用户自愿发布的内容(比如ChatGPT所使用的互联网语料库),也包括算法根据用户行为生成的用户画像等,双方无法形成买卖关系。由于数据所有者和使用者的地位不同于普通的消费者和产品提供商,不正当竞争行为变得更加隐蔽、信息不对称也更加严重,因此欧盟立法试图增加数字服务用户对个人生成内容的支配权和收益权,以及对互联网大厂(占支配地位的数字服务企业,欧盟法条称“守门人(Gatekeeper)”利用数字资源盈利以严苛的限制条件以保证公平竞争。在这种大的趋势下,我们可以得出一个明确的结论:就是易于取得的数据质量会越来越低,使用数据的成本会显著增加,这进而让智能模型的维护成本也变得越来越高。
  第四,模仿是学习吗?如前所述,目前的资料并没有显示ChatGPT使用任何知识图谱或结构性信息来辅助运算,如果不依赖任何结构性信息,此类系统唯一的优势就是模仿。任何人只要反思自己的学习经历就能明白,模仿是人类认知中的重要组成部分,但绝不是认知的全部。一台基于规则完成学习任务的机器完全可以预先包含一些有关规则修改的“元规则”,或是提供语义更新以便让系统重新恢复一致性。在神经网络模型中,一个感受器网络的参数是每个神经元的参数和权值组成的矩阵;在隐马尔可夫模型中,参数是对状态之间转换可能性的概率评价。这些评价体系都是主观的,它们有权不受哲学还原论的考察,但这也就意味着它们不具备演绎推理的一劳永逸的可靠性。例如,对于统计学习的主观的优化条件,有人反驳说数字计算机的浮点数也是一种主观限制,但在数论里,这种限制条件是可以被先验地证明的;而在统计学习里,不论是开普勒对精确性的限制来自理论的简洁性要求和技术上的实际困难,还是今天的统计学习中的种种损失函数,都是来自于主观偏好,而主观偏好是可能随时变化的。
  德雷福斯、彭罗斯等人曾对将图灵测试作为黄金律进行过严肃的批判。从技术的角度看,图灵测试的局限性在于通过该测试的智能机器事实上应用价值有限:仅仅实现人机对话无助于构造能够模拟人类依靠语言进行决策的智能系统,当问题在语料库中不存在人类创作的文本答案时,智能系统那里是无解的;从哲学上看,ChatGPT仅能够“使用语言”,这同分析哲学中所谈的“用语言思考”是有区别的,用语言思考的能力并非主要依靠长期的逆向反馈训练出来的,而是在掌握语法规则、惯例的基础上正向形成的。
  早期机器学习研究是把无监督学习作为目标。例如,电子对弈系统就是无监督学习,追求动作代价的最小化而不是实际响应与期望响应之间的误差减小,这种目标能够实现是有赖于棋类运动状态空间的有穷性;而理想中的自主学习是不局限于有穷状态,它要求学习主体能够与环境直接互动,依靠直接经验进行学习。事实上,目前的智能系统虽然能够通过各种传感器传回数据 但无法独立地“制造”人类经验。现实世界的语言、图像处理中常见的任务如判定、分类问题面对的不是对弈那样的规则封闭系统,原始数据的呈现也没有固定的格式,指望目前的智能模型产生纯粹意义上的自主学习是不现实的。而学习模型的优化,也只能依靠不断调整乔姆斯基所称的足够简单但“并不优美”(elegant)的多层次的激发函数的参数完成;也需要不得不尽可能多地搜集数据,并按照人工标准对样本模式化(比如构造向量空间、进行语义标注等等)。显然,统计学习的训练过程被压缩为对数据集进行处理而不是实时接收外部反馈,最终结果是由训练数据得到一个条件概率分布或者一个决策函数用以描述输入输出关系。这样的算法依赖于大量的冗余存储能力和运算能力,从1970年代以来的技术水平和能源利用率看,显然是不现实的;今天来看,也是巨大的浪费。
  (作者单位:四川大学哲学系;内蒙古师范大学哲学系)
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
《chat GPT1.0至4.0:人类通用知识革命一一大学本科生水平》
“火到爆炸”的ChatGPT,为何当不了智能客服?
当前计算语言学发展的几个特点
关于GPT,人工智能,以及人的一些思考
从ChatGPT到通用强人工智能
Stuart Russell专访:关于ChatGPT,更多数据和更多算力不能带来真正的智能
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服