查看原文
其他

介绍机器学习的公平性

Google 谷歌开发者 2018-12-13

文 / Google AI 开发技术推广工程师 Andrew Zaldivar


几个月前,我们公布了 AI 指导原则;我们将秉持这一系列承诺,以指引我们今后在人工智能 (AI) 领域的研究工作。除公布 AI 指导原则外,我们还分享了一些 推荐做法,以帮助更广大的社区设计和构建负责可靠的 AI 系统。


  • AI 指导原则 链接

    https://ai.google/principles

  • 推荐做法 链接

    https://ai.google/education/responsible-ai-practices


特别值得一提的是,其中一项 AI 指导原则谈及认识到 AI 算法和数据集是环境产物的重要性。正因如此,我们必须对任何由 AI 系统产生的潜在不公平结果,以及其对文化和社会造成的风险保持清醒的认识。我们建议从业者了解其算法和数据集的限制,但这一问题远未解决。


为帮助从业者应对构建更具公平性和包容性的 AI 系统的挑战,我们已针对机器学习的公平性开发出 短小的自学训练模块。这一新模块是我们 机器学习速成课程 的一部分,我们强烈建议您先参加此课程,不过若您精通机器学习,也可直接跳至 公平性模块


  • 短小的自学训练模块 链接

    https://www.blog.google/technology/ai/new-course-teach-people-about-fairness-machine-learning/

  • 机器学习速成课程 链接

    https://developers.googleblog.com/2018/03/machine-learning-crash-course.html

  • 公平性模块 链接

    https://developers.google.com/machine-learning/crash-course/fairness/video-lecture


公平性模块提供了 实操技术练习。这项练习演示了如何使用开发堆栈中可能已有的工具和技术(例如 Facets Dive、SeabornPandasscikit-learn 和 TensorFlow Estimator 等),来探索和发现让机器学习系统更具公平性和包容性的方法。我们已 在 Colaboratory 笔记中 创建练习,欢迎您根据自身目的使用、修改和分发该项练习。


  • 实操技术练习 链接

    https://developers.google.com/machine-learning/crash-course/fairness/programming-exercise

  • Facets Dive 链接

    https://pair-code.github.io/facets/

  • Seaborn 链接

    https://seaborn.pydata.org/

  • Pandas 链接

    http://pandas.pydata.org/

  • scikit-learn 链接

    http://scikit-learn.org/stable/

  • TensorFlow Estimator 链接

    https://www.tensorflow.org/guide/estimators

  • 在 Colaboratory 笔记中 链接

    https://colab.sandbox.google.com/github/google/eng-edu/blob/master/ml/cc/exercises/intro_to_fairness.ipynb?utm_source=mlcc&utm_campaign=colab-external&utm_medium=referral&utm_content=fairness-colab&hl=en#scrollTo=naMQPO5iRpNE


从探索数据集到分析模型性能,我们在构建 AI 系统时很容易忘记留出时间进行认真负责的反思。因此,我们在整个练习中添加了名为 FairAware 的任务,而非让您不间断地相继运行每个代码单元。FairAware 任务可以帮助您放大和缩小问题空间。如此一来,您便可提醒自己着眼于全局:寻找可能会对不同组别的模型性能造成严重影响的不良偏见。我们希望您可以在工作流程中采用 FairAware,以便找到实现包容性的机会。



FairAware 任务引导从业者比较不同性别间的表现。


我们创建公平性模块的目的在于让您有充分的认识,以着手解决 AI 中的公平性和包容性问题。这仅仅是开始,请关注此部分以了解后续研究。


如要从其他示例中了解更多内容,请参阅《 负责任的 AI 实践 》(Responsible AI Practices) 指南中的 “公平性” 部分。您会在其中找到完整的 Google 建议和资源。从 报告考虑到公平性和包容性的模型性能的最新研究计划,乃至 近期推出的可让所有人探究已训练模型公平性的诊断工具,我们的资源指南重点介绍了公平性方面的众多研究和开发领域。


  • 《 负责任的 AI 实践 》(Responsible AI Practices)  链接

    https://ai.google/education/responsible-ai-practices?category=fairness

  • 报告考虑到公平性和包容性的模型性能的最新研究计划 链接

    https://arxiv.org/abs/1810.03993

  • 近期推出的可让所有人探究已训练模型公平性的诊断工具 链接

    https://pair-code.github.io/what-if-tool/ai-fairness.html


我们希望了解您对公平性模块的看法。如果您对笔记练习本身有任何具体意见,请随时在我们的 GitHub 代码库 中发表评论。


  • GitHub 代码库 链接

    https://github.com/google/eng-edu/blob/master/ml/cc/exercises/intro_to_fairness.ipynb


谨代表诸多贡献者和支持者,

Andrew Zaldivar – Google AI 开发技术推广工程师



更多 AI 相关阅读:



    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存