找回密码
 立即注册
  • 回复
  • 收藏

推进人工智能和隐私不是一个零和游戏

tdmin 2018-12-28 06:16 29人围观 人工智能

鉴于人工智能依赖于机器学习和机器学习数据,传统观点认为隐私和人工智能基本上是不一致的 - 一方面的进步必须牺牲另一方的利益。

然而,推进AI和隐私并不是一场零和游戏。

来自学术界和工业界的研究人员已经将密码学和机器学习的想法结合起来,提供了看似矛盾的从数据中学习的能力。本月,神经信息处理系统会议 - 年度最大的人工智能会议 - 展示了迄今为止出现的一些有前途的隐私保护技术,所有这些技术都在英特尔公司进行了研究:

联邦学习
假设一组医院想要建立一个机器学习系统来分析患者数据并估计疾病的可能性。理论上,通过共享他们的数据,他们可以建立一个更准确的模型,但隐私规则禁止这样做。联邦学习提供了一种解决方案。以下是它的工作原理:首先,每家医院都使用其私人数据来调整和改善共享模型的性能,而不会将任何私人数据离开医院。接下来,受信任的中央服务器收集所有调整,将其相加,并将此汇总的改进发送给所有医院。


该方法重复进行,直到模型完全训练,并且可以帮助保护隐私,同时为所有参与的医院提供大型,多样化数据集的益处。2017年,Google开始在其Android设备的键盘中测试联合学习。

差异隐私(DP)
应用程序收集我们的数据以了解使用模式并改进服务,例如流量预测和电影推荐。从理论上讲,汇总数据不应暴露其个人贡献。然而,在实践中,在某些情况下,可以重新识别聚合数据集中的个体信息。

DP使得更难以通过例如向每个用户的数据引入一些随机性来隐藏任何一个用户的贡献。例如,Apple在从您的设备收集数据时会使用这种隐私保护技术。

同态加密(HE)
这种技术允许机器学习算法在数据仍处于加密状态时对数据进行操作,即无需访问底层敏感数据。使用HE,医院可以锁定敏感的医疗数据; 将其发送给远程不受信任的系统进行分析; 收到加密结果; 然后使用其密钥解密结果 - 所有这些都不会泄露基础数据。

使用HE还可以提供持续的保护,而DP这样的解决方案则不会:例如,即使机器未经授权存储您的数据,数据仍然受加密保护。英特尔正在构建HE工具,以帮助研究人员开发可对加密数据进行操作的神经网络模型。

当然,挑战仍然存在。

在技​​术方面,虽然底层加密工具已经成熟,但它们在保护隐私的机器学习方面的应用仍有改进的余地。例如,与非私有方法相比,这些技术需要额外的计算资源,尽管研究人员正在努力降低这种增加的成本。
在政策方面,尚不清楚这些保护隐私的机器学习方法在多大程度上会满足立法者和监管者的要求。值得注意的是,欧盟的通用数据保护条例(GDPR)不适用于匿名信息。但由于加密数据可以解锁,因此似乎不太可能被视为匿名 - 尽管这仍有待在法庭上进行测试。

政策制定者需要继续参与持续的技术突破以及他们改变隐私环境的方式。随着越来越多的政府通过法律来规范隐私,存在被动立法的风险,这些立法尚未得到充分考虑或与技术现实相协调。不明智的隐私问题可能会导致科技公司内部的孤岛或文化,这些公司会在新兴的AI行业中限制创造性解决问题的意外后果。
这些担忧强调了技术专家和政策制定者之间建立强有力的伙伴关系以实现联合监管和技术解决方案的重要性,这些解决方案得到了研究和行业的推动。通过合作,我们可以确保AI充分发挥其潜力,而不必强迫我们在隐私和创新之间做出选择。

鲜花

握手

雷人

路过

鸡蛋
我有话说......