同样是强奸犯,36岁比19岁危害小得多,这是算法的逻辑,法官怎么看?
算法是一个黑箱。
我们可以看到它们在世间发挥作用,我们知道它们正塑造我们周遭的各种事物,但我们大多数人并不知道算法是什么——或者算法如何影响我们。
算法是不可见的代码片段,它们负责指导计算机完成特定的任务。我们可以把算法想象成计算机的“食谱”:计算机遵照一种算法的指示便能“烹制”出特定的结果。我们每次进行谷歌搜索、查看Facebook动态消息,或是在汽车中使用GPS导航,都是在跟算法进行交互。
伦敦大学学院(UCL)的数学家汉娜·弗莱(Hannah Fry)在其新书中提出,我们不应该把算法本身想成是好的或者坏的,而是应该更多地关注编写这些算法的人。
从医疗到交通,从社会福利到刑事司法,算法正在我们社会的方方面面做着非常重要的决策。然而,普通人对算法几乎一无所知,更不用说在幕后编写这些算法的工程师和程序员了。
笔者与弗莱讨论了算法如何悄然改变人们生活的规则,以及算法是否利大于弊。
以下是访谈实录,内容略有删减:
算法正在如何改变人们的生活?
汉娜·弗莱:说实话,方方面面都有。从我们选择阅读和观看的内容到我们选择约会的对象,算法正在发挥越来越大的作用。而且,这不仅仅体现在那些显而易见的用例上,比如谷歌搜索算法或是亚马逊推荐算法。
我们已经把这些算法引入了法庭、医院和学校,并由它们代表我们做出一个个小决策,而这正在微妙地改变着我们社会的运作方式。
你认为我们对算法的信任是错的吗?我们把如此多的决策权交给这些程序,这是不是一个错误?
汉娜·弗莱:这是一个棘手的问题,我们与机器的关系非常复杂。一方面,我们有时候的确会错误地信任它们。在我们的预期中,它们宛如上帝,完美无缺,以至于不管它们带领我们去向何方,我们都会盲目地跟从。
但与此同时,我们也有这样一种倾向,即一旦算法稍微显露出缺陷,我们就会大加贬斥。因此,假如Siri答错了问题,或是我们的GPS应用预估错了交通情况,我们便会认为整套机器都是垃圾,而这根本没有道理。
算法并不完美,它们往往包含有开发人员的偏见,但算法仍然非常高效,它们让我们的生活变得更加便捷。因此,我认为正确的态度是持中:不应该盲目地信任算法,但也无需一竿子全盘打翻。
我们通过倚重算法获得了哪些优势?
汉娜·弗莱:我们不擅长很多事情,我们不擅长保持一致,我们不擅长不偏不倚,我们很容易疲倦和粗心大意。
算法就没有这些缺陷,它们始终如一,从不疲倦,而且绝对精确。问题在于,算法不理解上下文关系或细微差别,它们不能像人类那样理解情感和产生同理心。
“我们不一定要创造这样一个世界,由机器告诉我们要做什么或如何思考,尽管我们非常有可能沦陷在那样的世界当中。”
你能举一个算法犯下灾难性错误的例子吗?
汉娜·弗莱:我在书中写到了弗吉尼亚州19岁男子克里斯托弗·德鲁·布鲁克斯(Christopher Drew Brooks)的故事,他跟一名14岁女孩发生关系而被判法定强奸罪。他们发生关系皆出于自愿,但由于女孩是未成年人,因此是非法的。
在量刑过程中,法官用到了一种算法,这种算法旨在预测一个人在服刑期满后继续犯罪的可能性有多大。算法评估了布鲁克斯重新犯罪的分数,由于他在非常年轻的时候就有了性犯罪前科,算法认为他今后继续犯罪的可能性非常高。因此,算法建议判处他入狱服刑18个月。
也许这个建议是公平合理的。不过,这也展示出算法有时候会有多不合逻辑。因为事实证明,本案中涉及的算法对犯罪者的年龄赋予了很大的权重——如果他的年龄是36岁而不是19岁,那么算法就会认为他对社会的威胁要低得多。但在这种情况下,犯罪者将比受害者年长22岁,我觉得任何有理智的人都会认为这要更加糟糕。
这个例子展示了逻辑完美的算法会怎样得出奇怪的结果。在本案中,你可能认为法官会自行判断,推翻算法的建议,但在现实中法官增加了布鲁克斯的刑期,在某种程度上是受到了算法的影响。
开发这些算法的人,谷歌和Facebook等公司的工程师,你觉得他们完全理解自己所开发的东西吗?
汉娜·弗莱:他们正开始认真关注这些东西的影响。Facebook过去奉行的信条是“快速行动,破旧立新”,这也是科技界大多数人的态度。但在过去的几年里,这种潮流发生了变化。随着算法造成的意想不到的后果日渐清晰,很多科技界人士已经醒悟过来。
每一个社交媒体平台,每一个成为我们生活组成部分的算法,都是这个正在展开的大规模社会实验的一部分。全世界范围内有数十亿人正在跟这些技术互动,这就是为什么最微小的改动都可能对全人类产生非常大的影响。这些公司正开始认识到这一点并认真应对。
你说算法本身并不分好坏,但我想在这上面多说几句。算法可以造成意想不到的后果,尤其是那些可以自我编程的机器学习算法。既然我们不可能预测出所有可能的场景,我们能不能说有些算法是坏的,即使那不是它们的设计本意?
汉娜·弗莱:这是一个很好的问题,我们得把这些技术,特别是机器学习和人工智能,更多地与电的发明去类比,而不是电灯。我的意思是,我们不知道这些东西会被人们如何使用以及在什么样的场景和情况下使用。
但是,电本身没有好坏之分,它只是一件拥有无限多使用方式的工具。算法也是如此,我没有见过100%好或100%坏的算法,我认为它所处的环境和周围的一切才起到了决定性的作用。
“对于算法能够做什么和不能做什么,我们可以提出任何主张,即便那荒谬透顶,也没有人能够阻止我们那样做。”
你是否担心算法的大规模普及正在削弱我们思考和决策的能力?
汉娜·弗莱:在某些地方,这种事情显然正在发生,人类的作用被排除在外,听之任之是非常危险的。不过,我也认为,事情不一定需要演变成那样。人类和机器并不一定要彼此对立,我们必须跟机器合作,并认识到它们跟我们一样存在缺陷,以及它们跟我们一样会犯错。
我们不一定要创造这样一个世界,由机器告诉我们要做什么或如何思考,尽管我们非常有可能沦陷在那样的世界当中。我更希望人和机器、人和算法是合作伙伴的关系。
你是否觉得人和人工算法最终会以一种模糊两者界线的方式结合在一起?
汉娜·弗莱:完全有可能,但那距离我们还非常非常遥远。
举例来说,有一个研究项目试图复制秀丽隐杆线虫的大脑,这是一种微型蠕虫,其大脑中大约有200个神经元——研究人员未获成功。即便拥有最尖端、最先进的人工智能,我们也无力模拟一种微小蠕虫的大脑。因此,我们距离模拟更复杂的动物就更加遥远了,更别说复制人脑。
所以,这些讨论很有意思,但它们也可能让我们偏离眼下正在发生的事情。统领我们生活的规则和系统都在发生变化,而算法是其中很重要的一部分。
我们是否需要为算法制定更强大的监管框架?
汉娜·弗莱:绝对需要。我们一直生活在科技的狂野西部,你可以在未经他人允许的情况下收集他们的私密数据并将之出售给广告商。我们正在把人变成商品,而他们甚至没有意识到这一点。对于算法能够做什么和不能做什么,我们可以提出任何主张,即使那荒谬透顶,也没有人能够阻止我们那样做。
即使一种算法是行之有效的,也没有人来评估它是否为社会带来了好处或造成了损害,没有人来做这些检查工作。我们需要监管算法的“FDA”(美国食品和药物管理局),这个机构既要能够保护公司开发算法的知识产权,同时也要确保算法不会以任何形式伤害或侵犯公众利益。
归根结底,算法为人们解决的问题是不是多过了它们制造的问题?
汉娜·弗莱:是的,我认为它们解决的问题多过它们制造的问题,我对这些事情仍然保持着乐观的态度。我已经在这个领域工作了十多年的时间,这些技术有很大的正面作用。算法正在被用于帮助预防犯罪,帮助医生获取更准确的癌症诊断结果,等等等等。
对人类来说,所有这些事情都是非常非常积极的进步。我们只是需要在应用它们的方式上面保持谨慎,我们不能鲁莽行动,我们不能一味快速行动,一味破旧立新。
翻译 | 何无鱼;校对 | Lily
来源 | Vox
▼
推荐阅读