打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
如果人工智能歧视你,你该怎么办

科技

&

技术

1

人工智能的成长挫折

        每个父母都担心自己的孩子会受到别人的影响,所以会很关注他们的老师是谁?他们正在看什么电影?他们在玩什么电子游戏?他们和合适的人群一起玩吗?我们仔细检查这些影响,因为我们知道它们会影响孩子做出的决定,无论是好是坏。正如我们关注谁在教我们的孩子一样,我们也需要注意谁在教我们的算法。像人类一样,人工智能系统从其所处的环境中学习,并根据其发展的偏见做出决策。和我们的孩子一样,我们应该期望我们的模型能够随着他们的成长来解释他们的决定。

        算法就像对于我们的孩子来说决定着我们上的大学,是否被录用以寻找工作,是否有资格获得贷款以购买房屋,甚至谁入狱以及持续多长时间。与人为决定不同,这些数学模型很少受到质疑。它们只是出现在某人的计算机屏幕上,命运就已确定。在某些情况下,算法的错误是显而易见的,例如当谷歌以90亿美元收购苹果公司,或者微软的Tay聊天机器人在Twitter上乱发信息,但通常不是这样。更隐蔽和普遍的是那些细微的算法错误,这些细微的错误虽然未被注意到,但却对人们的生活产生了非常实际的影响。

2

数据偏差

        一旦遇到错误的算法,大家的生活就会立即变得更加困难。就像孩子无法入读一所好学校或找不到一份工作,导致收入减少,生活在更差的社区。这些事实被引入新算法中,所有问题的情况会进一步恶化。毫无疑问,随着我们越来越多地将决策交给算法,这个问题有可能变得更加严重。当务之急是,我们必须开始认真对待人工智能偏差问题,并采取措施通过使我们的系统更加透明,可解释和可审计来减轻其影响。

        人工智能系统中的偏差有两个主要来源:训练模型所依据的数据集和模型本身的设计。训练算法的数据集中的偏差可能很细微,例如,当使用智能手机应用程序监视坑洼并提醒当局与维护人员联系时。这可能是有效的方法,但一定会使偏远地区的贫困人口减少,因为那里拥有智能手机的人越来越少。在其他情况下,未收集的数据可能会影响结果。分析人士怀疑,当谷歌流感趋势预测2013年的病例数几乎是实际数量的两倍时,就会发生这种情况。似乎已经发生的事情是,媒体报道的增加导致没有生病的人进行更多的搜索。当人类的偏见延续到AI系统中时,就会产生数据偏见的另一个来源。例如,司法系统中的偏见会影响谁因犯罪被起诉和判刑。如果将这些数据用于预测谁可能犯罪,那么这些偏见将继续存在。在其他情况下,人类被用来标记数据,并可能将输入偏差引导到系统中。

3

人工智能歧视

        这种偏见普遍存在,难以消除。实际上,亚马逊被迫放弃了由人工智能驱动的招聘工具,因为他们无法消除结果中的性别偏见。他们不公平地偏爱男性,因为他们使用的培训数据告诉系统,该公司以前雇用的大多数被视为成功的员工都是男性。即使他们消除了对性别的任何特定提及,系统也会将某些单词出现在男性简历中而不是女性简历中,这是性别的代理。偏差的第二个主要来源是决策模型的设计方式。例如,如果根据测验分数评估老师的能力,则表现的其他方面例如招募有学习差异或情绪问题的孩子将无法注册,甚至受到不公平的惩罚。在其他情况下,将根据最容易获取的数据来构建模型,或者根据特定的一组情况对模型进行过拟合,然后将其应用得过于广泛。克服偏见

        由于存在多种多样的偏见,我们认为完全消除甚至根本消除偏见是不现实的。但是,我们可以做的是使我们的AI系统更具可解释性,可审计性和透明度,可以采取三个实际步骤来减轻偏见的影响。首先,必须对AI系统进行严格的人工审查。例如,一份报告中引用的一项研究发现,虽然机器在读取放射线图像时有7.5%的错误率,而人类有3.5%的错误率,但是当人们将工作与机器结合起来时,错误率下降了。至0.5%。

4

数据决定成败

        其次,就像法律要求银行“了解客户”一样,构建系统的工程师也需要了解其算法。例如,数据实验室负责人埃里克·哈勒曾表示,与几十年前不同,当他们使用的模型相当简单时,在AI时代,他的数据科学家需要更加谨慎。过去,只需要保留准确的记录,这样,如果犯了一个错误,可以回去,找到问题并加以解决。现在,当我们有这么多模型都由人工智能提供支持时,这并不容易。我们不仅可以下载开源代码并运行它。我们需要非常深入地了解我们算法中的每一行代码,并能够向外部利益相关者进行解释。

        第三,人工智能系统以及用于训练它们的数据源必须透明且可用于审核。欧洲的GDPR之类的立法框架已迈出了一些有希望的第一步,但显然还需要做更多的工作。我们认为人类在没有任何监督的情况下做出决定是不可接受的,因此没有理由在机器做出决定时我们应该接受它。也许最重要的是,我们需要从自动化文化转变为增强文化。人工智能的效果最好不是用作替代人类并降低成本的魔盒,而是用作创造新价值的力量乘数。通过使AI更具可解释性,可审计性和透明度,我们不仅可以使我们的系统更加公平,而且可以使它们更有效,更有用。

Steven博 | 公众号

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
谁才是让AI产生偏见的幕后推手?
2018,一文看尽AI发展真相(下)
人工智能该如何实现人性化,才能建立起自身可信度?
陈昌凤等:由数据决定?AIGC的价值观和伦理问题
算法该怎么设计才不会有偏见?麻省理工科学家给出了他们的答案
[首藏作品](2110)我们需要怎样的人工智能
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服