打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
人工智能的复杂经济学

我们建立强大的人工智能系统来管理经济的复杂性,这些系统使我们的经济更加复杂。这种递归循环具有重要的机会和风险。

关于人工智能的经济辩论类似于詹姆斯卡梅隆的终结者传奇中的科幻战场。他们以机器人为主。

一些经济学家认为,这些机器人(人工智能系统和自动化的体现)将改变我们的经济,如以前的经济时代所做的蒸汽或电力,不同之处在于这次将有更多的工作岗位被取代,因为人工智能系统也可以日益自动化智力任务作为物理的。其他人则更乐观,并相信人工智能系统将提高生产力,增加现有工作岗位并催化新工作岗位。

所有人似乎都认为AI系统将“成功”:它们将在整个经济中部署,提高生产力并增加创新。问题是这种情况发生的速度有多快,还有多少中断。

但是这个假设是否合理?

媒体和学术工作中源源不断的人工智能争议和启示引发了重大疑虑。它们包括社交媒体中的算法失败,刑事司法系统和自动驾驶汽车,操纵用户,降低工人的条件,针对少数群体的算法偏见,以及对最先进技术的脆弱,不透明和低效性的担忧AI(深度学习)系统。这个由Varoon Mathur在AI Now Institute创建的过去12个月的算法争议时间表说明了问题的规模[2]。与此同时,大肆吹嘘的机器人工作大灾难无处可见[1]。

2018年的算法争议

在一篇新文章中,我展示了这些争议和谜题是人工智能经济复杂性的表现:它的影响不是线性的,而是通过一个充满相互依赖性的复杂系统展开......

  • 组织内部的投资和流程之间:如何部署AI系统以增强其收益并降低风险?
  • 不同组织的行为之间:您如何信任其他组织以不利用您或使您面临风险的方式部署AI系统?
  • 社会群体之间:如果弱势群体不太能够影响其部署地点和方式,那么人工智能的利益和成本是否会得到公平分配?
  • 代际之间:如果我们今天做出的科学,技术和商业决策将我们锁定在平庸,分裂和不安全的人工智能轨道上会怎样?

为了管理这些复杂性,经济学家和政策制定者首先需要认识到人工智能不是一种中性技术:它可以根据不同的轨迹发展,其中一些比其他人更具社会期望。监管和道德规范可以在人工智能指导方向上发挥作用,但研究与创新(R&I)政策应优先考虑(社会)“更好的人工智能”而不是“更多人工智能”。这是人工智能失败的学者提出的一个关键论点,我认为,这不仅仅是一个道德基础,而且也是一个经济基础[3]。

本书的其余部分考虑了人工智能复杂性的不同方面,以及研究和政策议程的原则,以应对他们提出的挑战,以及哪些已经在内斯塔的工作中实现(参见总结图和附件)关于定义的简短讨论)。

AI系统创建的不同复杂形式的摘要。

在组织中构建算法体系结构

首先,人工智能的到来会产生组织复杂性:人工智能创新具有不确定的影 它们提供了更多更好的决策的承诺,但是当环境以意想不到的方式发生变化时,它们也会犯错并造成事故。他们的采用者需要获得新的技能和基础设施,修改他们的流程,并建立用于监督和错误检测的系统,人们会关注机器,机器会关注人类。

但这些会奏效吗?如果他们不这样做会发生什么?

如果对人工智能部署的收益,成本和合适策略的估计受到兴奋或悲观的偏见,这可能会导致令人失望的人工智能应用程序出现意外失败(正如我们在社交媒体和自动驾驶汽车中看到的那样),或者人工智能的投资不足潜在的好处。跨部门的观念和态度的差异可能会导致人工智能部署的分歧。一些行业,如技术或广告,对人工智能系统更为乐观(也许对他们的缺点很天真)经历人工智能泡沫,而其他行业,如健康或政府,算法错误的赌注更高,落后。其他行业开发的现成AI解决方案和算法可能与其需求的相关性较低。

如果人工智能实验能够创造出其他组织可以搭乘的溢出效应,那么这可能会阻碍这些实验,或者驱使那些实施秘密的组织或寻求对难以模仿的独特数据集,计算基础设施或机器学习技能的控制权。甚至可以有利地出售给模仿者。这将增加人工智能领导者和追随者之间的鸿沟,并有助于进一步提高许多行业已经存在的市场集中度。

应通过实验和证据来解决这种组织复杂性这将涉及严格的研究和组织实验,以衡量人工智能部署及其副作用的影响,并确定补充它的技能和实践,利用新的数据组合和方法(正如我们已经通过我们在内斯塔的AI绘图工作所做的那样),并广泛分享调查结果以促进集体学习。这可以借助Nesta开创的模型,例如我们的数字研发基金,将数字技术的实验转化为经过全面评估的学习网站,以最大限度地提高他人的学习效果。另一个有希望的策略是由支持的创新随机对照试验创新和增长实验室(也许现在是时候建立一个独立的人工智能增长实验室来测试不同算法干预的影响,以确定哪些有效,哪些无效?)。

在人工智能可以创造大量公共利益的领域,更多的实验和证据尤为重要,但由于缺乏合适的商业模式,人工智能危险和缺乏技能,人工智能部署存在障碍。内斯塔已经着手中的良好做法的集体智能的设计是结合人类和算法,提高决策,并列明需要在公共部门部署AI之前回答问题。围绕AI的一些创新挑战和任务由英国政府和欧盟委员会实施 如果设计的明确目标是消除不确定性并加强围绕AI新应用的学习,则可以实现类似的示范角色。

AI市场中的修剪信息丛林

人工智能系统具有不确定的影响,可以通过多种不同的方式进行组合,并部署了难以从外部了解的目标(什么是社交网络优化,当它向您显示此新闻而不是那​​个?是您看到的预测由AI系统生成,或者它们是fauxtomation的一个例子,人类在算法幕后做实际的工作?)。

不确定性和缺乏可见性会在AI市场的参与者之间产生普遍的信息不对称。很多时候,与AI相关的交易中的一方(“代理人”)比另一方(“委托人”)知道的更多,因此可能会为委托人造成损失或风险,而不必担心遭到报复。这增加了市场复杂性。例如…

  • AI科学家可以捏造他们的结果或使他们难以复制,夸大他们开发的技术的好处或淡化他们对资助者的风险(许多AI系统是双重使用的,并且可以同样用于有益或恶意目的)。
  • AI采用者在他们不适合的领域错误应用脆弱的AI系统,利用个人数据和操纵用户和其他业务,或部署平庸和不安全的AI系统。
  • 人工智能算法“本身”的行为方式会增加市场复杂性,因为它们会将信号与噪声(过度拟合)数据混淆,无意识地优化组织的错误目标,或者以意外的,新兴的方式表现出AI闪存崩溃和系统性风险。

由此产生的信息失败可能会消除对人工智能市场的信任,从而导致安全和尊重用户权利,在一些市场中放弃人工智能(例如在人工智能灾难之后)放弃竞争,或推动组织内部化更多人工智能研究和开发活动,以减少他们对其动机无法信任的其他参与者的依赖,进一步增加AI市场集中度。

AI市场中的信息丛林。

我们如何修剪这些信息丛林?我们最近看到了大量的指导方针,章程和代码,以鼓励商业和政府中的道德AI。然而,我们不能假设,这些将足以防止不当行为,如果他们不符合法律规定的补充了透明度和遵守什么AI系统可以部署与否,以怎样的保障措施。

如何以避免扼杀创新和实验的方式来做到这一点?监管本身需要变得更具创新性,采用预先制定的监管方法,积极寻求适合未来市场的规则 - 这是Nesta积极参与的领域。我上面提到的实验和证据原理也有助于确定AI创新能够实现的领域保持无权限,以及应该更加控制的地方。

避免自动贩卖机的困境

人工智能系统的复杂性也体现在我们作为消费者,用户和选民的决策中,创造了新的社会复杂性

当我们选择基于极端人工智能系统的廉价或便利产品时(如某些电子商务平台和汽车应用程序的情况),这对其所在行业的工人产生了间接影响,比如它是否会使他们的工作变得更加不稳定或严密监控。当我们通过大规模部署人工智能系统来寻求公共服务的效率时,可以通过牺牲对依赖这些服务的弱势群体的偏见和不公平决策来节省成本。极端人工智能部署也可能带来更少的安全性,隐私风险和更多的市场集中度,但其中许多成本和风险是隐藏的或间接的,因此在我们的日常决策中更容易被忽视。

如果每个人都这样做,我们可能会遭遇比我们想要的更多极端和破坏性的AI部署 - 我称之为自动机的困境。更糟糕的是,既得利益者可能会试图操纵人工智能部署,以便影响他人而不是他们,增加不平等并造成不公正。最终,这可能会导致人们对人工智能系统的强烈抵制,这种系统被认为只会使少数人受益。

避免这种结果需要人工智能部署的团结:社会困境可以通过不同群体之间的协调和谈判以及海关和机构的变化来解决。政府和民间社会组织应加强公众参与,以确定人工智能的目标,规则和优先事项。这种参与将有助于确定人工智能部署的社会偏好轨迹,通过有针对性的研发计划进行探索,并在法规中进行编码。确定最近“ 蒙特利尔责任人工智能宣言”原则的过程就是如何发挥作用的一个很好的例子。

团结还意味着确定那些因人工智能的到来而受到经济威胁的社会群体,并采取干预措施来缓解他们的处境。已经提出了许多策略来实现这一目标,从教育和技能干预(例如Nesta的READIE团队正在探索的那些干预措施)到分散AI资本的所有权,以便自动化的回报大致分享,或基本收入。确定哪些雄心勃勃的措施能够更有效地发挥作用,并为其采用提供社会支持将成为未来的重要挑战。

保持人工智能在科学,技术和市场轨道上的多元化

如果工程师,企业家和规划人员已经知道我们今天所知道的有关污染,拥堵和气候变化的内容,那么他​​们在内燃机早期所做的工作会怎样?我们需要问自己类似的关于人工智能系统和时间复杂的平台的问题我们今天对它们做出的选择限制了明天的选择,可能将我们锁定在难以摆脱的部署轨道上。

在科学和技术方面,当前的人工智能进步依赖于数据匮乏,脆弱和不透明的深度学习方法:一旦他们获得足够的数据,这些系统表现良好,但有时他们会以惊人的方式崩溃(例如,当他们是显示“对抗性的例子”),这些事故往往难以理解或预测。对深度学习的批评者担心,它会让我们陷入技术死胡同,我们通过收集和标记更多数据,花费更多计算来继续论证其局限性并使我们的经济和社会适应其局限性,而不是探索可以为我们提供更强大和可解释的人工智能系统的替代人工智能模型。目前重新设计城市以使其更适合于不可靠的自动驾驶汽车的举措是人类系统适应技术能力的一个例子。但是你想住在一个看起来像机器人工厂的城市吗?

类似的路径依赖性在由数字平台主导的市场中起作用,数字平台提供免费和个性化的服务和内容以换取用于训练AI系统的个人数据。一旦他们成为主导,这些平台和商业模式很难被驱逐,特别是一旦用户习惯于大规模个性化和(至少在表面上)免费价格。

面对这些惯性和潜在的不可逆转性,需要多样性和多元化。在我们更多地了解复杂人工智能系统的影响,补充和风险之前,我们需要避免单一模型在科学,技术或商业中“做人工智能”的主导地位,这种模式可能会变得低劣而难以摆脱。这需要主动扫描人工智能领域,以识别匍匐的单一文化,并采取有针对性的干预措施,以创造人工智能科学,技术和商业的多样性。Nesta正与欧盟委员会合作,在DECODE和Engineroom等项目中实现这些目标我们正在开发让个人掌控自己数据的技术,并提供更具包容性和以人为本的互联网的基石。

结论:在空间和时间上对齐值

即使我们同意我们想要实现的社会目标,实时指导人工智能开发以管理这些经济复杂性也很难。但是我们在国家内部缺乏这种协议,而且在国家之间更是如此。看看正在展开的人工智能全球竞赛,不同的参与者 - 美国,中国,欧盟 - 正在推动他们对人工智能的看法面临分裂,冲突,虐待和事故的风险。该AI的民族主义正在被人们认为没有自动化这些国家和地区将实现自动化加剧-  AI的影响的地理是太复杂。

需要通过政策实验进行制度创新,国际标准和集体学习,以避免危险的种族在安全和道德方面陷入僵局。他们可以作为图灵测试的镜像版本,通过他们对他们创建的人工智能系统的机遇和挑战的回应,不同的社会了解自己 - 他们是什么以及他们想要成为什么。

致谢

这篇博客及其基于的文章得益于与Tommaso Ciarli,John Davies,Chris Gorst,Geoff Mulgan,Simone Vannuccini,Ed Steinmueller和Konstantinos Stathoulopoulos的对话。

尾注

  1. 该纲要介绍了该主题的一些最新研究。
  2. 另请参阅AI Now 2018年国家报告,了解算法争议及其政策含义的最新概述。
  3. 在这方面,我认为对AI复杂性的经济分析可以补充已经仔细记录AI失败的关键方法,主要是将其解释为不同群体之间权力动态的结果,而不系统地考虑激励,信息和协调的作用。

附件:定义AI系统

在文章中,我将AI系统定义为“ 社会技术系统,其功能是在动态情况下通知或自动化行为。“这个定义抓住了人工智能系统嵌入社会系统(组织和市场)这一事实,并通过自动化或告知不断变化的情况下的行为来实现经济功能(这就是为什么他们需要聪明地行动,即适应条件的变化)必须以某种方式识别)。

为了做到这一点,AI系统需要传感器来捕获有关环境的信息,分析是把这些信息纳入该怎么办(可能涉及人类决策层认为设定的目标,并监督输出)决定,和效应是改变这些决定成动作。

这个定义与每个组件内部的内容无关。在人工智能作为一门学科的历史中,研究人员和技术人员一直在寻求建立人工智能系统的不同策略。当代方法,这导致了性能的重要的改进,依赖于被上标记的数据(监督学习)或合成的环境(强化学习)使它们能够训练机器学习算法大约可以用于推荐的环境enerate预测或实施适当的策略。这种数据驱动方法的优点是不必事先指定AI系统需要遵循的一组规则,以便感知环境并实现其目标。在缺点方面,它是数据饥渴和数据盲目。当面对用于训练它们的数据集之外的情况时,它使AI系统依赖于大型数据集并且易碎。

下图表示这些AI系统的结构,它们与它们的输入之间的关系。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
Nature:人工智能研究的盲点
自动驾驶车辆的AI算法及其面临的挑战
人工智能非合作性竞争的风险,已经来临……
人工智能落地之路:从概念验证到产品
Nature | AI for science 的全面综述
AI 与合成生物学「联姻」的五大挑战:技术、数据、算法、评估与社会学
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服