谷歌实验室告诉你,拿什么去拯救机器学习产生的“偏见”?

导读:机器学习也会对数据产生“偏见”,从而导致错误的预测。我们该如何解决这一问题? Google 的新论文或许会揭晓答案。

谷歌实验室告诉你,拿什么去拯救机器学习产生的“偏见”?

机器学习中的机会均等

随着机器学习计算稳步发展,越来越多人开始关注其对于社会的影响。机器学习的成功分支之一是监督学习。有着足够的历史遗留数据和计算资源,学习算法预测未来事件的效果往往令人震惊。以一个假设为例,算法可以被用来高精度预测谁将会偿还他们的贷款。贷款人可能会使用这样的预测,以帮忙决定谁应该首先得到贷款。基于机器学习做出的决定,其实用性往往令人难以置信,并对我们的生活产生了深远的影响。

然而,最好的预测也可能出错。尽管机器学习致力于最小化出错的可能性,但我们该如何防止某些组非均匀的共享这些错误?考虑到一些情况下,我们拥有的数据相对较少,且其特征不同于那些与预测任务相关的大众方法。由于预测精度一般与训练的数据量息息相关,一些组中的错误预测将会更加常见。例如,尽管他们偿还了贷款,预测最后也可能将过多的个体标记到“高违约风险”组中。当组中的成员恰逢一个敏感属性,如种族、性别、残疾、或宗教时,便会导致不公正的或有偏见的结果。

尽管需要,但机器学习中一直缺乏防止这类歧视,且基于敏感属性的审核方法。有一种憨厚的方法是在做任何其他事之前,从数据中删除一组敏感属性。其想法是一种“无意识的不公平”,然而,由于存在“冗余编码”也未能成功。即使在数据中不存在某个特定的属性,其他属性的组合也可以作为代理。

另一个普用方法被称之为“统计平价”,其要求预测必须与敏感属性无关。这直观上听起来是可取的,但结果本身往往与敏感属性相关。例如,男性心脏衰竭的发病率通常比女性更高。当预测这样的医疗情况时,要阻断预测结果和组成员之间的一切相关性,既不现实,也不可取。

谷歌实验室告诉你,拿什么去拯救机器学习产生的“偏见”?

机会平等

考虑到这些概念上的困难,我们已经提出了一种方法,用于测量和防止基于一系列敏感属性所产生的歧视。我们还展示了如何调整一个给定的预测,需要的话,它可以更好的权衡分类精度和非歧视。

我们想法的核心是,符合理想结果的个体,应因此而拥有平等正确分类的机会。在我们虚构的贷款例子中,它意味着预测“低风险”会实际偿还贷款的人不应该依赖于敏感属性,如种族或性别。我们称之为监督学习中的机会均等。

实施时,我们的框架还改善了激励机制,将差预测的成本从个人转移到决策者,它可以通过投资提高预测精度以进行响应。完美的预测总能满足我们的概念,这表明建立更精准预测的中心目标与避免歧视的目标一致。

更多相关资讯

为了方便你自己探索博客文章中的想法,我们的 Big Picture 团队创造了一个美妙的互动,以视觉化不同的概念和权衡。所以,你可以访问他们的主页了解更多相关资讯。一旦你浏览了演示,请查看论文的完整版,它由得克萨斯大学奥斯汀分校的 Eric Price 和芝加哥 TTI 的 Nati Srebro 共同完成。今年,我们会在巴塞罗召开的神经信息处理系统(NIPS)会议上提交该论文。所以,如果你在附近的话,一定要停下脚步和我们中的一员聊聊天。

我们的论文决不是该重要且复杂话题的终点。它加入了一个正在进行的多学科研究对谈话。我们希望可以鼓舞未来的研究,进一步讨论可实现的方法,以权衡环境歧视和机器学习,并开发有助于从业者应对这些挑战的工具。

Via:Google Research Blog

推荐阅读:

机器学习正在安全领域挂起一阵小旋风,但这里面有BUG

AI 热潮注定会失败?机器学习智能才是王道?

雷峰网原创文章,未经授权禁止转载。详情见。


谷歌实验室告诉你,拿什么去拯救机器学习产生的“偏见”?

原创文章,作者:kirin,如若转载,请注明出处:https://blog.ytso.com/215043.html

(0)
上一篇 2021年12月21日
下一篇 2021年12月21日

相关推荐

发表回复

登录后才能评论