找回密码
 立即注册
  • 回复
  • 收藏

Nvidia研究负责人:AI仍缺乏关键因素

tdmin 2019-1-2 10:39 15人围观 人工智能

在  亚马逊的招聘失败之后  ,专家们认为机器人本身并没有偏见 - 他们只是反映和扩大现实世界中的文化偏见。

这些专家说,对劣质机器学习的解决方案看似简单:更好的数据。

人工智能'真的像野外狂野西部'
根据研究公司IDC的数据  ,全球认知和人工智能(AI)系统的支出估计达190亿美元,几乎是2017年的两倍。人工智能技术的承诺催生了美国和中国之间的竞争,两者都争夺全球领导者的头衔。根据普华永道的一份报告,该行业预计到2030年美国国内生产总值将增长14.5% - 仅次于中国,预计中国将增长26.1%。

“互联网使其成为可能,” Nvidia(NVDA)机器学习研究主任,加州理工学院Bren教授Anima Anandkumar  告诉雅虎财经。“我们无法以这种规模收集数据[没有它]。”

通过更多数据,工程师可以为机器建模更多场景,以自动化耗时的过程,从筛选数千份简历到检测人体内的癌细胞。 但鉴于AI的大部分依赖于数据,它来自哪里 - 以及它有多少可用 - 很重要。

“我们知道内容和互联网不平衡,”Anandkumar说。“并不是一个人控制它。它真的像狂野的西部。“调节人类行为以改善AI
IDC的认知/人工智能系统研究主任David Schubmehl解释说,当有人为机器学习设置算法时,结果基于算法识别的现有趋势和重复出现的特征。

“让我们说你正在研究一个地区的警察事件数量,”Schubmehl告诉雅虎财经。机器学习系统将开始查看该区域的盗窃证据“基于您收集的不同属性,例如被捕者是男性还是女性。”

然后它将发现共性并将它们标记为可识别的特征。然后AI教会自己搜索哪些功能,最终成为算法的一部分。

因此,“当你开始收集这类信息时,你必须要小心,你不要暗中偏向于系统,”Schubmehl说。“它确定的一些功能可能是合理的,也可能不合理。”  

“算法不能完全模拟真实世界,”Anandkumar说,并指出“算法本身并不是罪魁祸首。......我们需要找出最能规范人类行为的方法。“
'人类倾向于偏见'
与此同时,先发制人地消除有偏见的结果可以防止这些现有的偏见在机器中被复制。

例如:当涉及招聘时 - 鉴于美国劳动力的很大一部分都有针对他们的刑事指控 -  旧金山的背景调查公司Checkr确保他们的系统不会因为确保他们不公平地歧视这些候选人留在申请人池中(而不是在传统系统中自动过滤掉)。

“人类倾向于偏向,”Checkr产品和工程副总裁托马斯·巴雷托告诉雅虎财经。截至2018年10月,Barreto的团队使用AI扫描了1500万候选人,创建了一种根据犯罪严重程度对不同类型的指控进行分类的方法,然后他们会根据具体情况进行检查。这项努力旨在确保候选人不会因为过去的不端行为而被淘汰。

“我们的过程是收集事实,”巴雷托补充道。“因此,在这种情况下,我们的工作不是过滤或做出关于候选人是一个好候选人还是一个坏候选人的主观决定。”

鲜花

握手

雷人

路过

鸡蛋
我有话说......