收录于话题
#科技向善
,15个
人性的未来倚赖于我们能对智能程序保持掌控,而不是让它们掌控我们。
我们必须确保科技为人的互动增值,而不是替代人际互动或者将社会公益引入歧途。
我们不能将自动化时代看作真人与代码的较量,而应该看作一种社会服务机构之间的合作伙伴关系,通过采用科技来更好地服务客户。
本文首发于SSIR英文网站
议题编辑:林夕、姚森
学术顾问:段伟文作者:艾莉森· 法恩、贝丝· 坎特翻译:WaterStill校对:菁博、林夕、姚森最近的一个下午,我们在纽约肯尼迪国际机场的一家咖啡厅里通过机器屏幕来点餐。去年,在同一家咖啡厅里,还是由真人工作人员来为我们点单的。新的屏幕操作系统很有效率,但是也意味着一次人际互动的丧失、共通人性的丧失以及一个人的工作机会的丧失。不管我们是否愿意,自动化时代已经到来了。以机器人、聊天机器人、人工智能、机器学习、对话界面、生化电子人以及其他智能设备的形式为代表的“智能程序”,正迅速成为机构与人之间的接口。这一趋势日益显著,根据高德纳 (Gartner) 的研究,预计到2020年,我们每天80%的互动都将与智能程序有关。这些技术发展的影响范围超过咖啡厅和客服,远达公民社会的核心活动。正如我们在纽约肯尼迪国际机场咖啡厅的例子中所看到的,智能程序开始被应用于提供真正的服务,而这正是自动化时代与人性发生冲突的地方:跟机器而不是活人打交道来订一张机票也许没什么问题,甚至体验可能还会更好;但是如果用机器人取代心理咨询师、医护人员、或社工呢?这些互动是我们愿意用智能程序来替代的吗?还有就是算法中的隐性偏见所导致的特惠待遇问题。纽约州立大学水牛城分校社会工作学院院长、教授南希·J·史密斯 (Nancy. J. Smyth)表示,最起码,应该总是有一种方法可以使人超越智能程序的范围,与一个真人对话。“我们需要相应流程来确保…...当人因特定行为而被算法标示出来时, 那些受过专门训练,而且能够理解生活复杂性的专门人员,可对机器所作出的判断加以仔细检视”,史密斯女士表示,“我认为这是一项基本人权”。我们在科技上的努力一直都基于如下几点展开:确保人类是被赋能的、是健康的,并且生活与工作的社会网络中所表达的观点是能被听到的。智能程序的到来打破了这种平衡。保证人们被听到是不够的,我们现在必须确保科技为人的互动增值,而不是替代人际互动或者将社会公益引入歧途。如果科技通过以人为本的方式创造价值,那我们就可以有更多的时间来专注于人。因此,在智能程序卷入到我们生活的方方面面之前,我们这些非营利性组织、社会变革组织有着义不容辞的责任来启动一场关于如何保持并以人性为先导的讨论,而不是让智能程序来引导人性。我们对这一时刻缺乏准备,毫不夸张地说,人性的未来倚赖于我们能对智能程序保持掌控,而不是让它们掌控我们。
历史证明,智能程序可以被正向使用。非营利性组织里那些科技先行者们,曾将智能程序用于公民参与的自动化,比如用它们来帮助公民登记投票,联系当选官员,提振被边缘化的声音和议题。非营利性组织正开始用如Alexa这样的线上对话界面来进行社交公益参与,举例来说,奥杜邦协会发布了一项用来教人们辨别鸟叫声的Alexa技术。另外,十多年以来,“隐形人”组织(Invisible People)的创始人马克·霍瓦特为那些通过社交网络找到他的无家可归者们提供“虚拟个案管理”。霍瓦特说,无家可归者组织可以用经过专门编程的聊天机器人向需要帮助的人提供基本信息,使他们联系上适合的服务。这能减少个案经理们的工作量并使数据记录更加准确。他解释道这有点像订机票:“一个无家可归者在线上通过智能程序填好服务所需的文件,之后再在机构里出示身份证。智能程序可以大大减少一个无家可归者获得服务的等待时间。显然,相比起把睡在商店前的流浪者们赶走的机器人保安而言,上述做法是智能程序的一种充满恻隐之心的使用方式。但是,同样有例子体现出智能程序用处的局限性。Mencap是一家位于英国的社会服务慈善组织,向患有学习障碍的儿童及家长提供支持和服务,该组织在其网站上通过聊天机器人进行了一项名为#我在这(#HereIAm)的公众教育活动。这项活动期望通过一个患有学习障碍的聊天机器人Aeren的经历,来帮助加深人们对学习障碍的了解。然而,这个机器人只能回答问题而不能提问,与人互动也不能使它变得更智能。这真的是帮助人们理解学习困难症本质的最佳方法吗?这使得那些提问者更真实地感受到学习障碍的困难了吗?显然Mencap觉得这种互动是有价值的,在报告中显示,人们对他们组织的了解程度增加了3%。同样令我们记忆犹新的是,监管与适当公共政策的缺失,使得社交媒体平台将注意力集中在其自身的丰富性上,而忽略了我们的隐私和福祉。当下,我们这些非营利组织还没有就在哪方面使用和如何使用新科技的伦理准则达成一致,也还没有卓有成效的宣传倡导,以确保公共政策能够跟上智能程序使用的步伐。从最近的事情走向可以知道,解决这些问题刻不容缓。以下两种在精神健康支持方面非常不同的使用智能程序的方式,凸显了在伦理与监管缺失的情况下会发生的事情 : “危机短信热线”(Crisis Text Line)是为经历精神健康危机的年轻人提供的热线服务:一个人给一个自动化交互页面发送短信,之后页面会回信询问他们遇到了何种危机。热线会通过机器学习和自然语言处理来识别哪些发信人正处于高危之中,这些人会被提到热线队伍的前面,排在低危人群之前。这些短信数据以一种一致且被动的方式进行存储,危机短信热线的首席数据技术专家鲍勃·费尔宾表示,“这样我们就不必做什么事来进行数据收集,这和调查以及其他需要大量人力的数据收集方式有很大区别”,这样一来,志愿回复者就能腾出时间,专注于和有需要的人的交流,而不是把时间花在编程、标注或存储数据上。
“危机短信热线”使用自动化和大数据分析来更好地了解他们客户的需求,和回应客户更好的方式——但是在他们的系统中智能程序并不会取代人类。起始短信之后的每一次互动都是和人进行的。Woebot,一个基于脸书即时通应用程序的线上聊天机器人用户入口,则是一种非常不同的模式。它同样为需要心理咨询的人们提供帮助,但是公司清楚表示他们的关注重点不是处于危机中的人。根据它的网站所说,Woebot “24/7(24小时7天)随时准备好倾听。没有长沙发,没有药物干预,没有童年旧事。只有关于改善你心情的策略,和偶尔的冷笑话”。
Woebot的模式中没有人的互动,公司相信简短的交谈、情感、声调分析和文字游戏可给找寻平价咨询的人们足够的帮助。Woebot是免费的,并且你的数据是安全的——目前来说。根据网站所说,“我们的使命是让有需要的人从根本上获得最好的心理工具。因此,我们目前非常幸运地不必向Woebot的用户收费。但是,这一点之后可能会变化,因为我们正朝着建立可持续业务的方向发展”。这毫不意外,当你使用Woebot的时候,你的数据会被脸书即时通,一个众所周知不透明且以公司为中心的数据平台分析、存储和使用。所以如果Woebot或者另一个智能程序咨询师开始将你的数据出售给制药公司的时候会发生什么?如何保护患者的隐私?谁将带头确保社会服务在使用智能程序时,能够把人放在第一位?
以下议题是一场我们需要在各自的组织内、并作为一个行业整体开展的,关于如何符合伦理地将智能程序用于社会公益事业的讨论的开端。 ★我们工作中的哪些部分可以从无损人性的更高效率中获益?(“人性”在此指的是人们相互学习和帮助的权利和机会)
★我们是否有关于从自动化技术收集来的数据使用和分享的隐私政策?这项政策是否强调保护终端用户的数据?这项政策是否容易被公众接受? ★当人们在与一个智能程序互动时,我们是否使他们清晰意识到他们在使用智能程序t? ★当我们开发利用智能程序来开展计划和服务时,我们是否常规地把客户、顾客和终端用户当作顾问让他们参与进来? ★用来开展服务的智能程序是否应该具有筹款功能?如果是的话,我们是否能够确保我们的捐助者们不会被情绪胁迫以至于给出超出他们实际意愿的更多的金额? ★我们是否在设计智能程序的对话互动时加入了同理心和恻隐心,或者请社会工作者们参与到设计过程中,以使得我们真正理解客户的需要、动机和渴望? ★在人工智能帮助智能程序不断学习进化的过程中,我们是否有计划对智能程序收集的数据进行每周检查,以确保我们忠于自己的价值观和初心?我们不能将自动化时代看作真人与代码的较量,而应该看作一种社会服务机构之间的合作伙伴关系,通过采用科技来更好地服务客户。要收获科技对公民社会的红利,智能程序的设计和推行必须坚持以人为本,并坚持最高的伦理标准以防止毁灭性意外后果的出现。
议题编辑:
林夕,关注社会创新和教育,MPA主修影响力投资,本职工作为美国教育科技公司MobLab国际市场负责人,曾任AI早期基金投资总监,数据教育公司联合创始人,Alchemist 斯坦福孵化器兼职小顾问。中美倒班无时差,爱好徒步露营、攀岩、网球、瑜伽,希望保持一颗初心,做现实的理想主义好青年;
姚森,《斯坦福社会创新评论》中文版编辑;
学术顾问:
段伟文,中国社科院哲学所科技哲学研究室主任、研究员,中国社科院科学技术和社会研究中心主任;主要研究方向为科技哲学、科技伦理、信息与智能的哲学、伦理与社会研究等。现任中国大数据专家委员会副主任委员,中国发展战略研究会常务理事,国家社科基金重大项目“智能革命与人类深度科技化前景的哲学研究”首席专家等。著有《可接受的科学:当代科学基础的反思》、《网络空间的伦理反思》等;
作者:
艾莉森· 法恩(@afine)是美国网络化领导力与线上行动主义的卓越思想者与战略专家;
贝丝·坎特 (@kanter) 曾被《快速公司》杂志评选为科技行业最有影响力女性之一,也是一名享有国际盛誉的大师级教练、博主和演讲人。