找回密码
 立即注册
  • 回复
  • 收藏

人工智能与伦理学

tdmin 2018-12-21 05:47 58人围观 人工智能

2018  年3月 18日晚上 10 点左右,Elaine Herzberg骑着自行车穿过亚利桑那州Tempe的一条街道,当时她被一辆自动驾驶的车撞死。虽然车轮后面有一个操作人员,但是一个自动系统 - 人工智能 - 完全可以控制。与其他涉及人与人工智能技术之间相互作用的事件一样,这一事件提出了许多道德和原始法律问题。该系统的程序员有什么道德义务来防止他们的创造带走人的生命?谁负责赫茨伯格的死?驾驶员座位上的人?该公司测试汽车的功能?AI系统的设计者,甚至是车载感应设备的制造商?

“人工智能”是指可以设计为从其环境中获取线索的系统,并且基于这些输入,继续解决问题,评估风险,进行预测并采取行动。在强大的计算机和大数据之前的时代,这样的系统由人类编程并遵循人类发明的规则,但是技术的进步导致了新方法的发展。其中之一是机器学习,现在是人工智能最活跃的领域,其中统计方法允许系统从数据“学习”并做出决策,而无需明确编程。这样的系统将用于解决问题的算法或一系列步骤与知识库或流配对 - 算法用于构建世界模型的信息。

关于这些进步的道德问题集中在致命的军用无人机中使用人工智能,或人工智能可能会摧毁全球金融系统的风险。更接近家庭,人工智能引发了对失业的担忧,因为自治系统威胁要取代数百万卡车司机,并使Lyft和Uber过时。除了这些更大的社会和经济考虑因素之外,数据科学家还对偏见,技术的道德实施以及人工智能系统与人类之间相互作用的性质有着真正的关注,如果这些系统要在最平凡的情况下正确公平地部署应用。

考虑一种看似平淡无奇的社会变革:机器已经被赋予了改变人们生活改变的日常决策的能力。人工智能可以汇总和评估大量有时超出人类能力的数据,无需人工分析,从而使人工智能能够提出招聘建议,在几秒钟内确定贷款申请人的信誉,并预测犯罪分子将重新犯罪的可能性。

但是这样的应用程序引发了令人不安的道德问题,因为人工智能系统可以强化他们从现实世界数据中学到的东西,甚至可以放大熟悉的风险,例如种族或性别偏见。当面对不熟悉的场景时,系统也会犯错判断。而且由于许多这样的系统都是“黑匣子”,他们决策的原因不容易被人类访问或理解 - 因此难以质疑或探究。

例子比比皆是。2014年,亚马逊开发了一种招聘工具,用于识别它可能想雇用的软件工程师; 该系统迅速开始歧视女性,该公司在2017年放弃了它。2016年,ProPublica分析了一个商业开发的系统,该系统可以预测犯罪分子重新犯罪的可能性,旨在帮助法官做出更好的判决决定,并发现它是偏见黑人。在过去两年中,依靠规则和训练数据进行操作的自动驾驶汽车在面对不熟悉的感官反馈或他们的指导系统无法解释的输入时造成了致命事故。私人商业开发人员一般拒绝让他们的代码可供审查,因为该软件被认为是专有知识产权,

与此同时,技术的进步本身并没有解决人工智能核心的潜在基本问题,即使是精心设计的算法也必须根据来自有缺陷,不完美,不可预测,特殊现实世界的输入做出决策。 。

计算机科学家比其他人更早地意识到,在设计了系统之后,工程学不能总是在事后解决这些问题。尽管在领域数据隐私等显着进展(见“ 隐私工具项目,” 1 - 2月2017),以及了然算法公平的限制,即伦理问题必须在很多情况下被认为是实现前一个系统的部署导致了伦理课程的正式整合 - 由哲学博士后研究生和研究生教授 - 进入哈佛大学的许多计算机科学课程。大学数据科学家以及哈佛大学法学院伯克曼克莱因中心与麻省理工学院媒体实验室共同发起的人工智能倡导道德与治理正在进行关于人工智能对世界的社会影响的深远讨论。这种对道德的强烈关注起源于计算机科学系的长期成员。
从传播到合作与伦理
“几年前,”希金斯自然科学教授Barbara Grosz说,“我正在拜访微软的朋友 - 丈夫开发计算机视觉系统 - 我们开车去某个地方散步。在我们面前的高速公路上是一辆卡车,背面有一个便盆,还有一辆自行车连接在便盆上。“我的系统会用这个东西做什么?” 丈夫想知道。“它会知道如何应对吗?”“答案是,可能不是。这样的图像不太可能成为其“体验”的一部分 - 由人类费力地标记的大量图像,形成系统的训练数据。
当前人工智能系统的脆弱性与人类智能形成鲜明对比,人类智能具有强大的功能,能够在一个环境中学习某些东西,并迅速将其应用于另一个环境。即使计算机可以将自行车与卡车区分开来,也很难识别它们如何连接在一起沿着高速公路行驶,自行车侧向行驶,时速为60英里。(利用此输入漏洞是“AI和对抗性攻击”的主题。换句话说,AI缺乏常识和推理能力 - 即使它也可以做出人类无法做到的令人难以置信的发现,例如检测三阶或更高阶的相互作用(当三个或更多变量必须相互作用才能有复杂生物网络中的一种效应。“停止考虑机器人接管,”Grosz总结道。“我们更害怕人们认为聪明的愚蠢系统,而不是知道自己极限的智能系统。”

Grosz曾在康奈尔大学攻读数学,然后在伯克利学习计算机科学,自1973年以来,她一直在人工智能问题上工作,当时她被聘为SRI国际人工智能中心的研究数学家。她被认为是AI子领域的建筑师,专门研究计算机如何生成和解释人类语言和文本 - 她在2017年获得了计算语言学协会的终身成就奖 - 并且可以通过一系列具有语言能力的系统来解决这些问题。正如Alexa,Siri和谷歌一样。例如,他们知道最近的急诊室在哪里,但并不是指导脚踝受伤的人去那里可能是有用的。

由于她的AI语言工作早于数据驱动的自然语言处理方法(参见“语言作为人工智能的Litmus测试”),Grosz开发了一种基于模型的方法,以计算机可以理解的方式表示人类话语。这已被证明对该领域特别有价值,因为它使她深刻反思人机交互的本质,后来,在想象计算机和人类可能共同工作的未来的过程中,为协作AI系统提出理论模型旨在与人们一起工作。

她在话语计算模型方面的工作远远超出了语法规则的编程。理解说话者意图,以确定对话的结构,从而破译人类言语中的意义,是她开创的一个关键策略。她指出,真实的演讲充满了重点和焦点的转移,引用了一个值得注意的例子:她记录了自发对话,因为一个人试图通过电传打字机告诉另一个如何组装空气压缩机。(在谈话中,一位发言者使用代词“it”来指代一个半小时未被提及的对象 - 两个人都明白了究竟是什么意思。)她补充道,语调也是理解其他方面的关键。暧昧的短语。“你是一个真正的王子”可能是字面上或讽刺地说,必须教会计算机理解的方式。

从这一跨学科研究中,流动了关于人机交互性质的一般原则。格罗兹与博士生Ece Kamar(现为微软研究院的高级研究员)开发了一种“中断管理”理论,例如,用于指导人与计算机之间的信息交换,以使这种通信以指数方式更高效。在长期职业生涯中,她开始相信人工智能的最佳用途是将这些系统与人类团队整合在一起。她设想了一个未来,它将智能计算机的速度和统计能力与天生的人才结合起来,而不是让机器和人类相互对抗的方式 - 这种关系经常被描述为人工智能系统在国际象棋和国际象棋中击败世界冠军的方式。或替换工作场所的人。这种综合方法可以说代表了人工智能系统的前沿。
当Grosz开始在医疗保健中尝试基于团队的人工智能系统时,她和斯坦福大学儿科医生开展了一个项目,协调对除了父母以外的许多人照看的罕见疾病儿童的护理,包括医疗专家,家庭护理助理,物理治疗师和课堂教师。她说,这种护理跨越了多年,并且“ 我遇到的任何人都无法跟踪其他15个人以及他们长期在做什么。”

Grosz与博士生Ofra Amir(现为Technion的一名教员)首先分析了病人护理团队的工作方式,并开发了团队协作理论,以指导人员与人工智能系统之间的互动,旨在协调有关孩子的照顾。正如她用语言做的那样,她从一般原则开始。“在理论上,我们要做的就是更好地了解如何在多成员团队环境中分享信息”,然后再为家长和医生建立工具。

她和她的同事Bar-Ilan大学教授Sarit Kraus开发的关键原则之一是团队成员不应该承担他们缺乏必要知识或能力来完成的任务。这是良好的人类团队合作的一个特点,也是“了解其极限的智能系统”的一个关键特征。“问题,不仅仅是AI,而是世界上许多技术,它可以“完成它所分配的工作” - 在线客户服务聊天机器人通过文本进行交互“无法理解你想要的东西”就是一个很好的例子。她说,这些系统的设计可能有所不同,因此第一次互动是由一个人帮助的一台电脑; 这个人将与客户建立关系,同时审查计算机显然是误解的内容,同时系统将使人能够更快地提供答案。当智能系统设计的这些基础不受尊重时,系统被认为能够处理他们无法做到的事情,或者以天真,不恰当的方式使用。

Grosz高度跨学科的研究方法,以语言学,哲学,心理学,经济学,甚至一些人类学和社会学为基础,使她思考这些学科中的哪一个可能最好地为AI系统设计的教学提供信息。尽管她曾在1987年至2001年期间教授过关于人工智能的入门课程,但其应用仍然主要是理论上的,当她在2013年和2014年重新启动该课程时,世界已经发生变化,当时正在部署全面运作的人工智能系统。Grosz意识到人工智能提出的道德挑战与良好的系统设计之间存在着相互作用的教学机会。

这导致了格罗兹对哈佛大学计算机科学教学最重要的贡献之一:道德应该紧密地融入每门课程。2015年秋天,她推出了一门新课程“智能系统设计和道德挑战”。到了第二年,140多名学生申请了全班25个学位,鼓励她鼓励计算机科学同事将一些道德教学纳入自己的课程。由于他们大多缺乏足够的背景来适应教学伦理,她开始与哲学教授艾莉森西蒙斯(哲学系主任)合作。他们一起与各自领域的同事合作,

她说,这种“嵌入式EthiCS”计划的目的是指导那些将建立未来人工智能系统的人们如何识别和思考道德问题。(计算机科学现在是哈佛大学本科生的第二大集中;如果包括统计学或应用数学等相关领域的学生,总入学人数远远超过排名靠前的经济学。)“这些道德挑战中的大部分都没有单一的权利回答,“她指出,”正如[学生]学习基本的计算技能一样,我希望他们学习基本的道德推理技巧。“2017年春季,四门计算机科学课程包括一些伦理学研究。那个秋天,到2018年春天有五个,然后是8个,现在共有18个,

对这些课程中学生的调查表明,80%到90%的学生赞同嵌入式道德教学,并且需要更多。“我的幻想,”格罗兹说,“每个计算机科学课程,可能有一两个例外,都会有一个道德模块,”因此,毕业后,每个选集都会看到“道德在各个领域都很重要 - 而不是只是在AI中。“她和她的同事希望学生们了解到,为了解决诸如偏见和人工智能中人类可解释性等问题,他们必须从一开始就设计出符合道德原则的系统。
成为波士顿车手
BEMIS国际法教授兼计算机科学教授Jonathan Zittrain是伯克曼克莱因互联网与社会中心的教员,从原型法律的角度来看,他一直在努力实现这一目标。在2018年春天,他与麻省理工学院媒体实验室主任Joi Ito共同教授了一门课程,探讨如何塑造人工智能技术以符合公众利益。自动驾驶汽车提供了一个特别突出的案例研究,迫使学生面对前方复杂性的性质,超越了决定伤害谁和拯救谁的“失控的小车问题”。
一旦汽车真正自主,Zittrain解释说,“这意味着如果为某人发出逮捕令,下次他们进入自动驾驶汽车时,车门就会锁定,汽车可以将他们开到最近的警察局。或者,如果车内有人宣布紧急情况怎么办?汽车可以在城市街道上以每小时70英里的速度将它们推到医院,而所有其他汽车都像红海一样吗?“

Zittrain班级的学生认为他们知道有关自动驾驶汽车的讨论会如何展开。但当他提出一个非常简单的问题时 - “司机应该能够指示汽车每小时行驶80英里吗?” - 他们面临着设计师的道德困境。如果是,并且汽车以这样的速度参与了事故,那么司机会负责吗?或者汽车制造商是否有责任允许车加速?Zittrain指出:“人们一直在加速,但我们有一种隐含的安慰,因为他们知道我们无能为力。” “对于自动驾驶汽车来说,可以理解的最初前提是,天哪,没有司机,我们不能责怪像汽车这样的无生命物体。看起来似乎缺乏责任“ - 实际上,”有过多的责任。“制造商,人工智能设计师,政策制定者和司机都可以追究责任。

Zittrain指出,如果车辆的人工智能系统动态改变其行为,因为它从路上的经验中“学习”,情况会变得更加复杂。“也许如果它在波士顿足够开车,它将成为波士顿的司机!”这适用于许多学习系统,法律解决方案仍未开发。他建议,也许,如果AI设计师或其他贡献者构建了一个学习系统,其中行为不能总是被预测,那么在这种不确定性的情况下运行会有一个价格标签。

Zittrain继续说,这个主题是跨学科探究的纽带。在伯克曼克莱中心和麻省理工学院的媒体实验室,他和他的同事们创建了一个名为“集结号”组带来休假从公司外部软件开发人员与学生们进行合作,彼此在一些这些难题的一两个月人工智能和其他数据科学领域。“嵌入式道德教育是为整个大学的学生创造机会,让他们相互接触,并将他们在各自学校学习的工具带到团队中的这种东西的努力的一部分。

“我认为这是让芭芭拉[格罗兹]的教学和研究在这里如此有影响力的一部分。如此永恒。她的教学不是如何干预计算机系统或软件来修复它。它真的在更广泛的层面上思考人和技术应该如何相互作用。“他们能够负责吗?他们能被理解吗?他们可以公平吗?

 

系统偏差与社会工程
自治系统的公平性问题在10月举行的首届哈佛数据科学大会(HDSC)上占据突出地位,计算机科学大学教授大卫帕克斯概述了哈佛大学数据科学研究的指导原则:它应解决道德问题,包括隐私问题(参见“The Watchers”, 2017年1月至2月,第56页); 它不应该使现有的偏见永久化; 它应该是透明的。但要创建体现这些原则的学习AI系统可能很难。系统复杂性,当数千或更多变量在起作用时,几乎不可能使真正的理解成为可能,并且学习系统所依赖的数据集中的偏差可以很容易地得到加强。

有很多理由说明为什么有人可能想要“深入了解人工智能系统”来弄清楚它是如何做出特定决定的:评估产生偏差的原因,在医院推出之前进行安全检查,或者在涉及自动驾驶汽车的事故后确定问责制。
可能不明显的是这种调查是多么困难和复杂。计算机科学助理教授Finale Doshi-Velez通过在屏幕上投射一个相对简单的决策树(四层深层)来演示,其中涉及基于五个输入回答问题(参见上面稍微复杂的例子)。如果执行正确,最后的指示是举起你的左手。一些与会者能够跟进。然后她展示了一个更复杂的决策树,可能是25层深,有五个新参数确定通过树的路径到正确的答案 - 这是计算机的一项简单任务。但是,当她问到观众中是否有人可以用语言描述为什么他们已经达到了他们的答案,没有人回应。即使突出了决策的正确途径,也很难描述复杂的相互作用输入对外行人的结果的影响。这仅适用于决策树等简单模型,而不是具有数百万参数的现代深层架构。开发从任意模型中提取解释的技术 - 具有大量变量,任务和输出的可扩展系统 - 是她实验室研究的主题。

偏见造成了一系列不同的问题。每当有不同的人口(例如种族,宗教或种族不同)时,McKay计算机科学教授Cynthia Dwork在HDSC谈论算法公平性时解释,这种算法决定了贷款的资格,应该对待每组都以同样的方式。但是在机器学习系统中,算法本身(解决特定问题的逐步程序)仅构成系统的一部分。另一部分是数据。在进行自动贷款决策的AI系统中,算法组件可以是无偏的,并且对于每个组完全公平,但是在算法从数据中学习之后,整个结果, 未必。Dwork解释说,“算法无法获得基本事实”(veritas的计算机术语)。如果用于做出决策的数据存在偏差,则决策本身可能存在偏差。

有办法解决这个问题。一种是非常仔细地选择允许算法考虑的申请人属性。(邮政编码,作为种族的众所周知的代理,通常会被淘汰。)但偏见有一种方法可以通过与算法使用的其他变量(例如姓氏结合地理人口普查数据)的相关性来回溯。

Dwork表示,通过智能算法设计可以解决对群体的偏见,但由于算法决策的基本特征,确保对个人的公平性要困难得多。任何这样的决定都有效地划定了一条线 - 正如Dwork指出的那样,总会有两个来自不同群体的人靠近这条线,一边是两边,几乎在各方面彼此非常相似。然而只有一个人会获得贷款。

在某些情况下,通过系统设计纠正偏差可能是一种不充分的方法。考虑一个由McKay计算机科学教授Yiling Chen和研究生Lily Hu '15设计的招聘系统,以消除对历史上处于不利地位的非洲裔美国人的雇佣偏见。正如胡所说,“算法,纯粹是优化驱动的工具,可以继承,内化,复制和加剧现有的不平等。假设我们存在劳动力市场差异,这种差异在没有任何机器学习帮助的情况下持续存在,然后是机器学习,它学会重新描述这些不平等。“他们的解决方案使用经济学和社会学工具来理解差异在劳动力市场中,将超越计算机科学的算法公平性思考推向跨学科,系统范围的问题观点。

Chen在社交计算领域工作,这是一个数据科学领域,强调人类行为对算法输入的影响。因为人类“自私,独立,容易出错,而且不可预测”足以设计能够确保在任何情况下都公平的算法,所以她开始考虑如何从训练数据中获取偏见 - 真实 - 招聘算法将使用的世界信息输入。

她和胡专注于在招聘中实施肯定行动的问题。一个直接的补救措施可以抵消少数群体面临的历史劣势,那就是在就业决策中支持这一群体,所有其他条件都是平等的。(这可能本身被认为对多数群体不公平,但在获得招聘公平之前仍被认为是可接受的。)但陈和胡则考虑了人的因素。假设许多少数族裔成员没有上大学,他们认为“它很贵,而且由于歧视,即使我获得了学位,我获得工作的机会仍然很低。”与此同时,雇主可能会相信“来自少数群体的人受教育程度较低,表现不佳,因为他们不努力。“陈和胡的观点是,尽管少数群体成员决定不上大学是理性的,但基于现有的历史不公平性,这一决定加强了雇主对整个群体的先入为主的观念。这种反馈效应的模式不仅难以打破 - 正是这种数据模式,一种算法,看着过去的成功雇用并将它们与大学学位联系起来,将会加强。

Chen和Hu提出的解决方案并不仅仅基于数学:相反,社会工程学使用算法来改变基本事实。它代表了对抵消数据偏见有多么困难的认可。研究人员提出的建议是建立临时劳动力市场。陈先生说,想想看,每个求职者必须参加两年的实习才能被聘用为长期劳动力。进入实习池将受到简单的“公平约束”,这种算法要求雇主从代表性数字中选择少数群体和多数群体的实习生。然后,在实习结束时,从实习生池聘用将根据单独关于绩效数据,不考虑团体成员资格。陈解释说,由于这些群体在人口层面上同样具有天赋,两组最终达到了平等。

“本文试图反击的内容,”胡解释说,“在机器学习/人工智能社区中,感知仍然占主导地位 - 一切都是从根本上说是优化问题,预测问题或分类问题。当你这样做时 - 如果你以标准的机器学习方式对待它 - 你将最终加强这些不平等。“

去年,胡是Grosz人工智能和道德课程(与哲学家Jeffrey Behrends共同教授)的教学研究员。她说人们需要明白,“建立技术,以及我们实施技术的方式”本身就是政治行为。它们并不存在于真空中,因为它们有时是好的,有时是坏的工具。我认为这是一种特别天真的技术思维方式。“

无论该技术是为了提供面部识别来识别犯罪嫌疑人的视频,还是针对不同学习方式或医疗建议的教育,胡强调,“我们需要考虑的是技术如何嵌入特定的价值观和假设。揭露这是第一步:意识到并非存在一些道德问题和一些非道德问题,但实际上,在我们设计的所有内容中 ......总会出现规范性问题,每一步都是“将这种意识融入现有的课程对于确保”我们正在建设的世界,无处不在的技术,是我们想要生活的世界“至关重要。  

鲜花

握手

雷人

路过

鸡蛋
我有话说......