查看原文
其他

我们如何才能让AI听懂,并且听话?

Nature Portfolio Nature Portfolio 2022-03-21


原文作者:Virginia Dignum

对人工智能如何塑造社会,这两本书提供了互补性的见解。

人工智能(AI)渗透到了我们的生活中。它决定了我们的阅读和购物,决定了我们能否获得工作、贷款、按揭、补贴或假释。它可以诊断疾病,并且构成民主进程的基础——或反过来对其造成破坏。两本新书为人工智能的开发者、使用者和管理者如何重塑社会提供了互补的愿景。

相关图书


《对齐问题:机器学习和人类价值观》

(The Alignment Problem: Machine Learning and Human Values)

作者:Brian Christian

出版社:W. W. Norton (2020)


《人工智能地图集:权力、政治和人工智能的地球成本》

(Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence)

作者:Kate Crawford

出版社:耶鲁大学出版社(2021)


在《对齐问题》中,作家Brian Christian对人工智能的开发者进行了深入了解,描述了他们的目标、期望、希望、挑战和惆怅。从20世纪初Walter Pitts关于神经元活动逻辑呈现的工作开始,作者讲述了从认知科学到工程领域中研究者和践行者们的想法、目标与成败。著名学者Kate Crawford的《人工智能地图集》则谈论了现实中人工智能如何进入我们的生活,并在其中发挥作用,它表示人工智能是一个采掘工业,挖掘的是材料、劳动力和信息资源。

在印度尼西亚,一名男子从沙子中分拣锡矿石。半导体所需的许多金属是以巨大的人力和环境代价而开采的。资料来源:Beawiharta/路透社

这两本书都解析了数字世界之中(以及之上)的力量,如何改变了政治和社会关系。它们提到了解决这些失衡的其他方法,例如中国的国家层面控制,或欧盟的监管努力,但重点放在了北美。这两本书也都呼吁未来进步。

从预言到普遍现实

Christian追踪了人工智能技术从预言发展到无处不在的进程。他展现出研究人员如何试图让人工智能解释人类的价值观,如公平、透明、好奇心和不确定性,以及他们面临的难处。本书大量基于与研究人员和从业人员的接触,描绘了一个缓慢稳定而又错综复杂的进程,其间有低谷,也有难以置信的高峰。


我们会看到像Rich Caruana这样的人物,他现在是微软公司的高级首席研究员,在研究生时期就发现了自己愿意为之奋斗一生的方向:优化数据聚类和压缩,使模型既准确又容易识别。我们还与Marc Bellemare一起在海滩上散步,他在为雅达利游戏公司工作时开创了强化学习,现在在谷歌研究院工作。


Christian展现出研究者越来越增进的认识——人工智能的发展受到社会价值观的影响,更重要的是,它也可能影响价值观。这可能需要付出代价,也会对社群产生深远的影响。《对齐问题》的核心是,我们如何才能确保人工智能系统能掌握我们的规范和价值观,理解我们的意思,并做我们想要的事情。对这种系统应该做什么,我们都有不同的概念和要求。正如数学家Norbert Wiener在1960年所说:"我们最好非常确定,给机器设定的目的就是我们真正想要的目的。"

大数据经济的幕后:新泽西州的一个亚马逊运营中心。资料来源:Bess Adler/Bloomberg/Getty

Crawford的作品,揭露了人工智能成功的黑暗面,它探索了全球各地之间的关系及其对人工智能基础设施的影响。从内华达州和印度尼西亚——在这里人们为了开采对于半导体至关重要的锂和锡,付出了巨大的人力和环境代价——到新泽西的亚马逊仓库,这里的工人们按照机器人和生产线的意愿弯曲着自己的身体,而不是让自动化适应人类的节奏。在查理·卓别林(Charlie Chaplin)1936年的电影《摩登时代》的不安提醒下,我们目睹了 “人工自动化”(fauxtomation)的艰辛:所谓的自动化系统严重依赖人类劳动,例如那些拿着低于最低标准的工资在数据标记农场中工作的工人们。


Crawford最后提醒大家,人工智能并不客观、中立或通用。相反,它深深植根于那些制造它的人的文化和经济现实中:主要为加州硅谷的高收入白人男性。


这两本书都有力地阐述了当前使用和发展人工智能的挑战和危险,以及它与"经典"计算的区别所在。比较阅读这两本书,我们会发现三个核心问题:过度依赖数据驱动且随机化的预测;自动化的决策;以及权力的集中。

数据的主导地位

正如人工智能研究员Joy Buolamwini在2020年的纪录片《编码偏见》Coded Bias中的评论所说,算法决策正在破坏数十年来平等权利上的进步,深度固化了它展现出的偏见。为什么会这样?因为使用数据为自动化决策提供信息往往忽略了人类选择的核心:背景、情感和关系。


数据并非原材料。它们总是关于过去的,它们反映了创造和收集它们的人的信念、实践和偏见。然而,目前自动化决策的应用更多的是出于效率和经济利益的考虑,而非聚焦于对人的影响。


更糟糕的是,大多数人工智能方法都赋予了那些拥有数据和计算资源的人以权力,来对其进行处理和管理。越来越多的情况下,这些“人”是大型科技公司:在民主进程和参与式控制之外的私人实体。政府和个人是用户,而非领导者。这种转变后果极大,甚至有可能改变整个社会。


那么,现在该怎么办呢?除了努力去除数据中偏见和解释算法做出的决定外,我们还需要解决偏见的来源,偏见无法通过技术解决,而需通过教育和社会变革来实现。同时,研究需要解决这个领域里对数据相关性的过度依赖。目前的人工智能识别的是模式,不是意义。


经过精心研究和出色的写作,这两本书皆为明鉴。它们表明,对人工智能负责任的——合乎伦理、合法且有益的——研发与使用,无关乎于技术而在于我们自身:我们希望世界是什么样子;人权和道德原则的考虑对我们有多重要;谁包括在这个“我们”里。这一讨论迫在眉睫,而关键问题是:如何让人人都能发声?

封面来源:unsplash


原文以AI — the people and places that make, use and manage it为标题发表在2021年5月26日的《自然》的书评版块上

© nature

doi: 10.1038/d41586-021-01397-x

点击“阅读原文”阅读英文原文

 好书推荐


钚钇氧锝元素故事出书啦!不可错过的元素科普经典之作

来自 Nature Chemistry

100余位

世界科学家

118

化学元素

120

文章

金涌院士   中国化学会   中国化工学会

推荐阅读

《自然的音符:118种化学元素的故事》由Nature自然科研译自《自然-化学》Nature Chemistry的In Your Element专栏。是所有图书中为数不多的,覆盖当前全部已发现的118种化学元素的科普图书,每一种元素都是邀请世界上对它研究深入的科学家之一撰写,专业权威,生动有趣。适合中学生及以上所有对化学元素感兴趣的读者阅读。本书由Nature Chemistry高级编辑作序。随书赠送覆盖118种化学元素的元素周期表明信片。

版权声明:

本文由施普林格·自然上海办公室负责翻译。中文内容仅供参考,一切内容以英文原版为准。欢迎转发至朋友圈,如需转载,请邮件China@nature.com。未经授权的翻译是侵权行为,版权方将保留追究法律责任的权利。


© 2021 Springer Nature Limited. All Rights Reserved

星标我们🌟,记得点赞、在看+转发哦!

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存