找回密码
 立即注册
  • 回复
  • 收藏

人工智能和偏见:四大关键挑战

tdmin 2019-1-4 10:37 52人围观 人工智能

这是不是新闻,对于所有的承诺的好处,人工智能有偏差的问题。人工智能中对种族或性别偏见的担忧已经出现在各种申请中,如招聘,警务,司法判决和金融服务。如果这项非凡的技术能够充分发挥其潜力,那么解决偏见将成为首要任务。考虑到这一点,在我们努力创建健康的AI生态系统时,AI开发人员,用户和决策者可以牢记以下四个关键挑战。

1.偏差内置于数据中
我们生活在充斥着数据的世界里。从理论上讲,这对人工智能来说应该是一件好事:毕竟,数据可以为人工智能提供支持,包括其以比人类快得多的速度学习的能力。然而,尽管AI程序员做出了最大努力,但AI系统用作输入的数据可能具有内置偏差。

考虑法官在做出判决决定时使用的算法。使用race作为算法的输入之一显然是不合适的。但是,看似种族中立的投入如先前的逮捕数量呢?不幸的是,逮捕不是种族中立的:有大量证据  表明非洲裔美国人在警务方面成为不成比例的目标。因此,逮捕记录统计数据受到种族的严重影响。这种相关性可以在人工智能系统的判决建议中传播,该系统使用先前的逮捕作为输入。

偏差的间接影响也存在于许多其他类型的数据中。例如,对信誉的评估取决于包括就业历史和事先获得信贷的因素 - 这两个领域对种族产生重大影响。再举一个例子,想象一下AI如何用来帮助一家大公司为新员工设定起薪。其中一项投入肯定是薪资历史,但考虑到有关性别歧视在公司薪酬结构中的作用的充分证据,可能会将性别偏见纳入计算。

2. AI引起的偏倚
另一个挑战是可以在AI系统中创建偏差,然后随着算法的发展而放大。

根据定义,AI算法不是静态的。相反,他们会随着时间的推移而学 最初,算法可能仅使用基于少量数据源的相对简单的计算集来做出决策。随着系统获得经验,它可以扩大其用作输入的数据的数量和种类,并使这些数据受到越来越复杂的处理。这意味着算法最终可能比最初部署时复杂得多。值得注意的是,这些变化不是由于人为干预来修改代码,而是由于机器对其自身行为进行的自动修改。在某些情况下,这种演变会引入偏见。

以制作抵押贷款审批决策的软件为例,该决策使用来自附近两个社区的输入数据 - 一个是中等收入,另一个是低收入。在其他条件相同的情况下,来自中等收入社区的随机选择的人可能比来自低收入社区的随机选择的人具有更高的收入,因此具有更高的借贷能力。
现在考虑一下,随着时间的推移,随着时间的推移,这种算法将变得越来越复杂,在房地产市场不断上升的几年中做出数以千计的抵押决策。贷款批准将有利于中等收入社区的居民,而不是低收入社区的居民。反过来,这些批准将扩大邻里之间的财富差距,因为贷款接受者将不成比例地受益于房屋价值上涨,因此他们未来的借贷能力将进一步上升。

类似的现象在非AI背景下长期存在。但是对于AI来说,事情变得更加不透明,因为算法可以快速发展到即使是专家也无法理解它实际上在做什么的程度。这将使人们很难知道它是否涉及非法行为,例如红线。

人工智能发明比人类创造的算法复杂得多的能力是其最大的资产之一 - 而且,当涉及识别和解决算法产生偏差的来源和后果时,这是其最大的挑战之一。

3.教授AI人类规则
从机器的角度来看,人类有一些复杂的规则可以考虑何时可以考虑通常与偏见相关的属性。采取性别:我们认为公司采用人工智能产生的薪酬计划,男性只有一个薪酬等级,女性薪酬等级不同,我们会认为这是令人反感的(并且是非法的)。

但是汽车保险怎么样?我们认为保险公司以不同的方式处理男性和女性是完全正常的(合法的),男性司机的一套费率和女性司机的不同费率 - 根据事故率的统计差异,这是不合理的处理方式。那么这是否意味着算法可以接受部分基于与诸如驾驶员宗教等属性相关的统计推断来计算汽车保险费率?显然不是。但是对于一种旨在以各种可能的方式切割大量数据的AI算法,这种禁止可能并不那么明显。另一个例子是年龄。一种算法可能会被原谅,因为它无法自己弄清楚在某些情况下(例如,人寿保险,汽车保险)考虑年龄是完全可以接受的,但在其他情况下这样做是非法的(例如,招聘,抵押贷款) 。

通过对算法施加前期的,特定于应用的约束,可以至少部分地减轻前述示例。但是,在一个上下文中部分使用数据训练的AI算法以后可以迁移到具有关于可以考虑的属性类型的不同规则的不同上下文。在未来高度复杂的AI系统中,我们甚至可能不知道这些迁移何时发生,因此很难知道算法何时可能跨越法律或道德界限。

4.评估疑似AI偏倚的病例
毫无疑问,偏见是AI中的一个重要问题。然而,仅仅因为怀疑算法偏差并不意味着它实际上将证明在每种情况下都存在。通常会有更多关于人工智能驱动结果的信息 - 例如,贷款申请是被批准还是被拒绝; 申请工作的人是否被雇用 - 而不是导致这些结果的基础数据和算法流程。这可能使得至少在最初区分明显偏差和实际偏差更加困难。

虽然应始终认真对待AI偏见的指责,但指控本身不应成为故事的结尾。对人工智能偏见的调查需要以最大化执行客观分析的能力的方式进行组织,不受压力以达到任何预定的结论。

结果
虽然人工智能有可能带来巨大的好处,但上面讨论的挑战 - 包括了解何时以及以何种形式存在偏差会影响人工智能系统中使用的数据和算法 - 将需要引起注意。这些挑战并不是停止投资于人工智能的原因,也不是为人工智能创造者带来匆忙起草,创新令人窒息的新法规的原因。但它们确实意味着将实际工作投入到可以最大限度地降低将偏差引入AI算法的可能性的方法中,这很可能是通过外部提供的数据或从内部提供的。而且,我们需要阐明框架,以评估AI偏见是否确实存在于怀疑的情况下。

鲜花

握手

雷人

路过

鸡蛋
我有话说......