介绍机器学习的公平性
文 / Google AI 开发技术推广工程师 Andrew Zaldivar
几个月前,我们公布了 AI 指导原则;我们将秉持这一系列承诺,以指引我们今后在人工智能 (AI) 领域的研究工作。除公布 AI 指导原则外,我们还分享了一些 推荐做法,以帮助更广大的社区设计和构建负责可靠的 AI 系统。
AI 指导原则 链接
https://ai.google/principles
推荐做法 链接
https://ai.google/education/responsible-ai-practices
特别值得一提的是,其中一项 AI 指导原则谈及认识到 AI 算法和数据集是环境产物的重要性。正因如此,我们必须对任何由 AI 系统产生的潜在不公平结果,以及其对文化和社会造成的风险保持清醒的认识。我们建议从业者了解其算法和数据集的限制,但这一问题远未解决。
为帮助从业者应对构建更具公平性和包容性的 AI 系统的挑战,我们已针对机器学习的公平性开发出 短小的自学训练模块。这一新模块是我们 机器学习速成课程 的一部分,我们强烈建议您先参加此课程,不过若您精通机器学习,也可直接跳至 公平性模块。
短小的自学训练模块 链接
https://www.blog.google/technology/ai/new-course-teach-people-about-fairness-machine-learning/
机器学习速成课程 链接
https://developers.googleblog.com/2018/03/machine-learning-crash-course.html
公平性模块 链接
https://developers.google.com/machine-learning/crash-course/fairness/video-lecture
公平性模块提供了 实操技术练习。这项练习演示了如何使用开发堆栈中可能已有的工具和技术(例如 Facets Dive、Seaborn、Pandas、scikit-learn 和 TensorFlow Estimator 等),来探索和发现让机器学习系统更具公平性和包容性的方法。我们已 在 Colaboratory 笔记中 创建练习,欢迎您根据自身目的使用、修改和分发该项练习。
实操技术练习 链接
https://developers.google.com/machine-learning/crash-course/fairness/programming-exercise
Facets Dive 链接
https://pair-code.github.io/facets/
Seaborn 链接
https://seaborn.pydata.org/
Pandas 链接
http://pandas.pydata.org/
scikit-learn 链接
http://scikit-learn.org/stable/
TensorFlow Estimator 链接
https://www.tensorflow.org/guide/estimators
在 Colaboratory 笔记中 链接
https://colab.sandbox.google.com/github/google/eng-edu/blob/master/ml/cc/exercises/intro_to_fairness.ipynb?utm_source=mlcc&utm_campaign=colab-external&utm_medium=referral&utm_content=fairness-colab&hl=en#scrollTo=naMQPO5iRpNE
从探索数据集到分析模型性能,我们在构建 AI 系统时很容易忘记留出时间进行认真负责的反思。因此,我们在整个练习中添加了名为 FairAware 的任务,而非让您不间断地相继运行每个代码单元。FairAware 任务可以帮助您放大和缩小问题空间。如此一来,您便可提醒自己着眼于全局:寻找可能会对不同组别的模型性能造成严重影响的不良偏见。我们希望您可以在工作流程中采用 FairAware,以便找到实现包容性的机会。
FairAware 任务引导从业者比较不同性别间的表现。
我们创建公平性模块的目的在于让您有充分的认识,以着手解决 AI 中的公平性和包容性问题。这仅仅是开始,请关注此部分以了解后续研究。
如要从其他示例中了解更多内容,请参阅《 负责任的 AI 实践 》(Responsible AI Practices) 指南中的 “公平性” 部分。您会在其中找到完整的 Google 建议和资源。从 报告考虑到公平性和包容性的模型性能的最新研究计划,乃至 近期推出的可让所有人探究已训练模型公平性的诊断工具,我们的资源指南重点介绍了公平性方面的众多研究和开发领域。
《 负责任的 AI 实践 》(Responsible AI Practices) 链接
https://ai.google/education/responsible-ai-practices?category=fairness
报告考虑到公平性和包容性的模型性能的最新研究计划 链接
https://arxiv.org/abs/1810.03993
近期推出的可让所有人探究已训练模型公平性的诊断工具 链接
https://pair-code.github.io/what-if-tool/ai-fairness.html
我们希望了解您对公平性模块的看法。如果您对笔记练习本身有任何具体意见,请随时在我们的 GitHub 代码库 中发表评论。
GitHub 代码库 链接
https://github.com/google/eng-edu/blob/master/ml/cc/exercises/intro_to_fairness.ipynb
谨代表诸多贡献者和支持者,
Andrew Zaldivar – Google AI 开发技术推广工程师
更多 AI 相关阅读: