首页 > 解决方案 > 如何使用 Fairlearn 指标来决定一项功能是否有偏见?

问题描述

任何人都可以提出关于选择差异度量阈值的最佳实践指南,以确定敏感属性是否有偏见?

标签: modelfairlearn

解决方案


这是一个很好的问题!要弄清楚这一点,就如何衡量对真实人的实际伤害而言,确定这些分析选择的影响确实很有帮助。

如果您喜欢研究论文,语言(技术)就是力量:对 NLP 中“偏见”的批判性调查(Blodget 等人,2020 年)提出了一些处理公平工作的方法,这些方法可以导致比只关注偏见更富有成效的对话.

更实际地,根据对真实人的真实伤害来构建对话,然后可以让您以易于理解的人类术语表达公平指标的阈值选​​择的影响。这可以向各种利益相关者说明为什么这项工作很重要并且值得做。

为了更详细地说明这一点,误报通常会导致与误报不同的危害,如果有人工审查过程,这会影响您如何量化这些危害或风险。上游标记噪声会影响您对阈值处理过程的信任程度,以捕捉真正的危害。对于决策支持系统,预测系统的下游参与、采用和信任通常会影响人类决策者是否实际使用模型预测。几行代码可以向利益相关者展示这种上游或下游噪音对公平指标的影响,并向利益相关者展示技术系统可能放大实际危害的其他方式。

如果您想更多地聊天,或者深入了解更多细节以帮助您探索这一点或在您的团队中开始这些对话,请随时在https://gitter.im/fairlearn/community中提问。像大多数软件工程工作一样,在特定应用程序、上下文或一组约束中提供更多可操作的建议更容易。


推荐阅读