郑磊丨“好的”人工智能:经济与社会权衡
作者简介
郑磊,宝新金融首席经济学家、国际新经济研究院副院长。
本文原载于《经济学家茶座》2021年第2期(总第90辑)。
全文4903字,阅读约需11分钟
“好的”人工智能:经济与社会权衡
1956年计算机科学家约翰·麦卡锡首次将“人工智能”定义为“制造智能机器的科学与工程”。《人工智能发展白皮书(2018)》提出人工智能可以理解为用机器不断感知、模拟人类的思维过程,使机器达到甚至超越人类的智能。
然而,人工智能技术的应用充满风险和不确定性,亨利·基辛格、斯蒂芬·霍金、艾隆·马斯克等人都曾发出警告。
目前机器人的“智商”正以指数级增速提高。一项对352名机器学习研究者的调研显示,人工智能2000年达到昆虫脑的智力,2010年达到了老鼠脑的智力,约在2020年能够达到个体平均智力水平,20年之后可能会超过人类智能。
这与库兹韦尔预测在人工智能在2045年左右达到人类智能是吻合的(《奇点临近》)。一些美国学者研究表明,1982-2017年间,美国就业呈现出明显极化:创造性的、认知性的工作,如科研、专业技术、文化创意等高技能岗位,以及基于人际交往、服务型的低技能工作岗位,如餐饮、导游等增加了,但一般操作性工作岗位,如制造业蓝领则不断减少。
人工智能技术有帮助吗?
客观地讲,人工智能技术可能会和历史上出现的其他创新科技一样,在长期来说,会提升社会生产力,增加更多的工作岗位。人工智能技术的运用造成的替代效应会与生产率效应相互抵消,人工智能与实体经济的高度融合,可以大幅度提高劳动生产率,增加产品附加值,从而增加居民收入。但是,这个好处仍需要和短期带来的社会冲击和社会成本放在一起,加以综合考虑和权衡。
人工智能技术应用带来的短期社会阵痛包括技术性失业和结构性失业。而技术性失业最明显的冲击是制造业就业。Acemoglu等发现1993-2007年美国19个产业中机器人的使用与就业率之间呈负相关关系,每千名工人中,每增加1台机器人,就会减少1.8-3.4个工作岗位,而且工人工资同时下降了2.5‰-5‰。
人工智能的替代的第一个阶段已经进入尾声,如亚马逊仓库的挑选和包装工作已逐渐被机器手取代。但是,人们逐渐发觉人工智能技术能够替代的劳动力范围,可能要比以前发生的任何新技术替代劳动力的范围更宽--已经可以替代一些复杂劳动,例如布隆伯格利用人工智能生成股市新闻。
麦肯锡预测2025年部分知识工作者将被取代,智能机器届时能完成1.1亿-1.4亿全职员工的工作。达文波特指出发达经济体中约有25%-50%主要从事知识与信息处理的工作者将面临失业。
2017年初,投资银行高盛宣布股票交易员将从600人裁减到2人,大部分工作将由机器完成。同年4月,管理5万亿美元资产的美国黑石集团宣布将用人工智能技术取代400名员工的工作。
Gartner预测,2020年智能客服将接管40%的移动交互,据数据统计,约30%的企业已在使用智能服务。国内某信息服务龙头企业的金融客服机器人已经能够处理97%的在线咨询,业务问题解决率超过90%,一年内单次服务成本下降了80%。
当人工智能侵入知识工作领域时,一些工作不再需要以前那些必备技能,半技术或无技术员工就可以完成这些工作,这种现象称为“去技能化”。
这意味着随着人工智能发展越来越快,在一些原来需要深度专业知识的领域,比如医疗,借助人工智能读片技术,放射科医生执业多年积累的看片诊断能力将不再需要,最近几年这些医生的数量在美国持续减少。
如果把人工智能替代低端劳动视为”正向淘汰”,那么对知识工作者的部分或完全替代可看作“逆向淘汰”。尽管在经济和技术角度都具有革命性,但对社会结构和正常社会生活的冲击过大。
人工智能不只是技术,也需要伦理考量
技术本身是手段,不是人类追求的目标。Technology(技术)一词的词根techne,指的是利用工具提高工匠和艺术家技能,让现实变得更美好。创造并改进工具是人类本能。
技术中性论的代表人物Emmanul G. Mesthene指出:“技术产生什么影响、服务于什么目的,这些都不是技术本身所固有的,而取决于人用技术来做什么。”
从人工智能技术应用对社会的影响来看,应该追求人工智能的社会利益最大化。人们希望通过智能机器,延伸和增强人类在改造自然、治理社会中的能力和效率,最终实现人与机器和谐共生共存。然而,人工智能在应用中确实引发了一些较严重的社会问题,特别是增加了失业和收入不平等。
人工智能与电力、计算机、通信技术的不同之处,是其先进性和复杂度较难被普通公众掌握,由于人们在科技、经济和能力素质等方面的不同,利用人工智能的机会和能力是不均衡的,造成了收入不平等。人工智能导致一部分产品和服务价格下跌,可使消费者获益,也加剧了收入分配失衡。
由于人工智能技术发展速度快,叠加了地区差异和贫富分化等因素之后,收入差距加大的趋势会日益明显。皮凯蒂指出,收入不平等差距大幅拉大是因为数字技术导致了更严重的赢家通吃局面。
DeCanio发现,如果劳动力和机器人资本替代弹性较大,总工资会随着人工智能技术的发展而下降,收入不平等将加剧。Brynjolfsson和 McAfee指出,资本收益增加的不平衡是人工智能导致收入不平等加剧的重要原因。人工智能的发展会导致创新和资本回报增加,但只有少数资本所有者受益。Prettner和Strulik认为自动化可能是许多国家不平等加剧的主要驱动因素,自动化程度、技能溢价随着创新驱动的增长而提高,更快的经济增长进一步拉大了不平等。
凯文•凯利曾预测未来将“追求效率的工作归于机器,不追求效率的工作归于人类。” 杰里•迈克尔斯基认为:企业正在竭尽全力裁减全职员工,因为他们会生病、脾气暴躁、需要退休金、需要加薪,而软件却变得越来越好、越来越便宜。无产者将会增多。与以往的技术飞跃不同,这次技术飞跃所导致企业解雇员工的速度,比重新培训和重新雇佣员工的速度更快。
如果我们在人工智能应用的过程中截取任意一段时间来看,随着生产智能化,产业结构调整、升级,资本受到利润趋势,越来越倾向于用“智能机器人”提高劳动效率和投资回报,结构性失业始终是一个无法回避的社会问题。面对工作岗位调整,人们只能适应变化,通过培训和学习掌握新技能。
科技伦理治理是现代科技发展的重要保障。人们通过对技术行为的伦理化调节,协调技术发展与人以及社会之间的紧张的伦理关系。对于应用而言,不仅要考虑技术的先进性,而且要考虑其目的手段以及后果的正当性,应将提升社会福祉,实现人们的内在幸福感作为人工智能技术应用的目标。
可及性、责任性、可控制性、可解释性、公平性、以人为中心,是人工智能技术应用伦理的核心要素。人类必须主导人工智能的发展,这是人类社会的内在要求。
伦理和法律是人工智能战略发展的保障。任何技术的发展如果离开伦理、法律的规范和制约,会有误入歧途的危险,甚至陷入道德困境并产生严重后果,人工智能领域更是如此。目前人工智能几乎涉及并深入到人类生产生活的各个方面。
我们首先应关注人类的天赋权利--劳动权利。技术伦理强调保持和促进社会平等、自由和公正。人类发展科技的主要目标是让其为人类服务,促进人类繁荣,增加人类社会的总福利。
人工智能的定位只能是补充人类尚不完美的行动能力,任何单从效率而侵犯人类应有劳动权利的技术都是违反伦理的,不宜提倡和鼓励。从这个原则出发,应该慎重对待以单纯提高经济效率的人工智能技术的应用。
尽管人类有很多缺点,劳动力成本和良好工作环境和设施,以及后勤保障都提高了成本,而且需要监督人的工作,比如一些舞弊或渎职行为,因此比使用同样能力的智能机器要贵。但是,劳动给人类带来了体验幸福不可或缺的归属感、满足感和成就感,这是人类最看重的身份认同和核心价值观。
创造价值是人类固有的,工作本身作为一种发现生活意义的方式,是很有价值的。在全球范围的民意调查中,拥有一份好工作是全世界所有人最渴望的事情。弗洛伊德说过:“爱和工作......工作和爱,这就是全部。”
很多研究发现,无业人群更不快乐,相比对他们进行其他任何形式的补偿,让他们回去工作更能让他们感到快乐。即便无工可务的人们能够分享人工智能系统所创造的巨大财富,这样的社会却无法让大家体现自身的价值,从中获得生活的意义。对于人类来说,这是非常残酷的未来图景。
不加选择地盲目应用人工智能技术,可能会让绝大多数人沦为庞大、复杂的智能机器系统中微不足道的“螺丝钉”。一些文化科技素养较差的普通劳动者,可能连培训的资格和工作的机会都难以获得,甚至在相当程度上失去劳动价值。
有学者认为,人工智能带来人生意义的消解等伦理问题。 戈尔德•莱昂纳德认为在制订影响未来的科技研究、开发、商业化利用的政策时,必须以人类的福祉为核心。
Geoff Colvin(Humans Are Underrated)提出:我们应当问的是,人类将允许人工智能做什么,并且确认有一些任务和决策永远都不会交给计算机来处理,哪怕它们更有能力完成这些事情。
另一个与人类生存发展至关重要的原则是自主性。如果人工智能技术的应用范围可能危及人的价值主体地位,那么无论具有多大的功用性价值,都应当进行严谨审慎的权衡与取舍。
达文波特讨论了知识工作者如何在人工智能时代取得比智能机器更大竞争优势的策略,给出的建议是人类与智能机器和谐共生,因此人们应该主动出击,保持领先。
达文波特指出所需的条件就是让自己成为全局者、避让者、参与者、专精者和开创者。然而人工智能技术的进步速度更快,很难确保个人能力永远比智能机器领先一步。
他的建议很有见地,但是未必人类只有这一条路可走。比如,马斯克提出的解决方法是“人类需要与机器结合,成为一种半机械人,来避免在人工智能时代面临淘汰的命运。”
如何平衡经济性与社会性
对于人工智能这个影响深远的革命性技术,我们有必要从微观角度建立一个能够进行综合判断的框架,并给出有助于扬长避短利用人工智能技术的政策建议。在人工智能技术的应用方面,需要比较在一段时间里,人工智能带来的收益和对社会造成的成本或损失,只有整体福利大于零的情况下,才应发展这种人工智能技术。
对于总福利不明显或影响不确定的技术,应慎重处理,继续观察效果。保持劳动力市场充分就业是衡量人工智能技术应用的一个关键因素。同时,在科技伦理方面设定不可触碰的底线,实行一票否决,必要时可通过法律强制手段禁止该类人工智能技术的应用。
实证分析表明人工智能对于不同行业、经济发展的不同阶段产生的效应是不同的,所以我们应该将具体行业和特定时间段纳入考量,避免逻辑上的综合谬误。在评估标准上,应该确定两个维度,即经济性净损益和社会性净损益,最后做出经过权衡的判断。原则上,某项人工智能技术应用带来的总净损益应大于零。
这里同时考虑了人工智能技术的替代和新岗位创设。如果人工智能替代的是重复性、程式化劳动,被替代的劳动者遭受的损失大于零;例外情况是,如果人工智能替代的是对人类健康安全有危害的劳动,或者比人类效率更高、质量更好的且人们目前无法涉足的工作,尽管失业造成的损失仍存在,但有可能为零,以认可其必要性和合理性。
社会性净损益较难量化计算,目前国内的非政府社会群体发展较缓慢,国外有很多社会团体关注人工智能技术的外部性影响,比如就业中的各种歧视现象、贫富差距、人权问题等。
科技伦理准则一般涵盖了这些方面的标准,我们可以选择对人工智能有决定性影响的伦理要素进行评估。对于可能严重违反科技伦理的人工智能技术应用,可以将其社会性净损益设为非常大的负值,那么将经济性净损益和社会性净损益加总时,仍然会得到负值,则这类人工智能技术应用将会被排除。
人工智能技术应用的选择和决策同时涉及了经济核算和伦理道德等方面的社会性评估,通过外部干预对各相关方利益加以调整,对于达成社会福利最大化的目标是必要的。当人工智能造成的就业减少成为一段时间的趋势时,依靠政府创造工作岗位是不太现实的。
如何发挥符合市场原则的公共政策的作用,缓解人工智能对劳动力市场可能带来的负面影响、保证总体社会福利不受损失,是我们要探讨的重要问题。
在保护人类的工作机会不被智能机器伤害,维护人类劳动权和自主发展权的前提下,通过采用人工智能技术提高社会生产力,所有人公平分配技术进步带来的社会财富,是我们应该努力实现的理想状态。