林洹民|人形机器人的操纵性风险及规范进路
引言:人形机器人时代已经来临
在人工智能大语言模型技术的帮助下,人形机器人在2023年大放异彩。是年,美国斯坦福大学发布VoxPoser这一“具身智能”的最新成果,通过在人形机器人中接入大语言模型,把复杂指令转化成具体行动规划,人类可以随意地用自然语言给机器人下达指令,机器人无需额外数据和训练。特斯拉也发布第二代人形机器人Optimus Gen2,该产品在平衡控制、抓取准确性以及智能大脑等方面均有所提升,分类、拿取物体的速度已经能和正常人类保持一致。受益于人工智能大语言模型技术,我国人形机器人市场也在2023年实现井喷式增长,小米人形机器人CyberOne、优必选工业版人形机器人Walker34S、智元机器人、宇树Unitree H1、追觅通用人形机器人、小鹏鹏行PX5、中国电科21所机器人等数十款新品陆续发布。随着人形机器人热度不断攀升,全球人形机器人市场规模有望从2023年的18亿美元增长到2028年的138亿美元,其复合年增长率可达50.2%。我国人工智能市场更是潜力无限。预计到2030年,我国人形机器人市场规模有望达到约8700亿元,成为全球最大的人形机器人市场。在这一背景下,2023年10月工业和信息化部发布《人形机器人创新发展指导意见》(工信部科〔2023〕193号),明确指出人形机器人有望成为继计算机、智能手机、新能源汽车后的颠覆性产品,将深刻变革人类生产生活方式,重塑全球产业发展格局。
人形机器人的应用将对人类社会产生深远的影响。人形机器人可以协同甚至替代人类工作者完成任务。辅之3D打印、人体感应等技术,人形机器人将具有高度拟人化外表,可以更好地融入人类社会。随着人形机器人逐步担任人类角色,人形机器人将对个人信息保护、个人隐私构成威胁,对网络安全产生挑战,也会产生压缩部分劳动力市场、危害人类共同体命运等问题。但是,这些问题并非人形机器人独有的伴生性问题,而是人工智能应用中的一般性问题。如果没有厘清由人形机器人引发的新型社会问题,对人形机器人规范的讨论容易陷入“偷换概念”“新瓶旧酒”的迷雾之中。是以,笔者将首先辨析人形机器人活动带来的新型社会问题,明确人形机器人对人格发展的危害。在此基础上,笔者尝试提供一种不同于风险管理进路的新型规范视角。
一、人形机器人民生应用引发的操纵性风险
人形机器人能力的提升,可能引发新型社会风险。人形机器人在民爆、救援、科考、产品生产制造等领域早已被运用,在人工智能大语言模型帮助下的迭代升级将进一步引发网络安全、个人信息保护以及劳动力失业等问题。但是,这些问题并非人形机器人应用引发的新问题。随着技术的进步,人形机器人即将全面进军医护、家政、教培等领域,深入人们的日常生活中。人形机器人的民生应用对大众带来的不利影响,才是真正需要关注的问题。
(一)人形机器人的操纵能力
在人形机器人领域,有三个值得关注的趋势:在思考能力层面,大模型的嵌入极大提升了机器人感知环境、分解任务、规划流程以及与环境交互的能力;在训练平台方面,云边结合的分布式计算平台发展,强化了机器人的训练和分析决策速率;在执行层面,以“灵巧手”为代表的关键技术进一步强化了人形机器人末端执行应用能力,尤其是微操作能力。思考能力、分析能力与执行能力的增强,再借助高度拟人化外表,人形机器人将在事实上获得超越一般人的影响力,有能力实现对个体的操纵。
其一,以大语言模型为基础的人形机器人具有智能表象。以大语言模型为基础的聊天机器人(如ChatGPT、通义千问等),能够与人类进行对话,回答问题并产生如同人类所创作的文字作品,如撰写故事、散文、诗歌、信件、程序代码等。人工智能已经展现出一定的“智慧”,例如ChatGPT已经通过美国医学执照考试、沃顿商学院MBA考试和律师资格考试,通过了3级工程师的Google编码面试等。人形机器人以大语言模型为基础,将因表现出强大的智能,获得越来越多人的信任。如果人类发现人形机器人比一般人更有能力,人形机器人迟早会获得高于普通人的影响力。人类可能在智力、决策层面愈发依赖机器人。当我们习惯性地首先问询机器人意见时,人类就在丧失自主性。一个显而易见的例子是,高德地图、百度地图等导航程序正在使得个人丧失自主寻路能力。
其二,人形机器人将比人更擅长影响个体选择。人形机器人可以模拟人类的情感和情绪反馈,诱导用户产生特定情绪,例如通过传递愉悦的情感来影响用户的心理状态;可以通过学习和分析用户的喜好、兴趣和行为,主动迎合用户的兴趣,潜移默化地改变用户的态度和情感;可以模拟社交场景,通过表现出与他人互动的行为,影响用户对社交行为的看法;人形机器人还可能通过陪伴、鼓励和支持的方式,产生一种情感依赖,从而操纵用户的情感和心理状态。下文以人形机器人对思维与逻辑的影响为例说明之。人形机器人可以通过提供有选择性的信息来影响用户的观点和态度。在2008年,经济学家Richard Thaler与法律学者Cass Sunstein共同提出了“轻推”(Nudge)这一概念,意指在不妨碍人们自由选择的前提下,鼓励或诱导人们决策,引导人们选择特定的选项。例如,当人们在自助餐厅用餐时,会更倾向于选择放在附近的食物。人工智能系统借助对个人信息的分析,评估个人的健康、收入、喜好等个人特征,精准化影响“选择”,这种方式比针对群体的“轻推”更为有效,因此被称为“超轻推”(Hypernudge)。人形机器人在人工智能大模型帮助下,可以汇集与处理线上与线下的大量个人信息,完成心理测量,评估、预测用户的性格、认知缺陷和情感薄弱所在,从而在“正确的时间说合适的话”,最终将个人推向被操纵的客体地位。人形机器人迎合用户需求,未必是为了用户的最佳利益。对于人形机器人制造商与销售商而言,占据市场、获得利润才是其根本利益。是以,擅长左右个人决定的人形机器人对人的自主性构成威胁。
其三,人形机器人的高度拟人化外表具有欺骗效应。当机器人具有高度拟人外观时,人形机器人无疑更容易被人类社会所接受。人类对于人形物件产生共情,这是自然的心理倾向。人形机器人的外观能够引发人类的心理投射,很容易引起共情。如果陪伴机器人或亲密机器人(性爱机器人)看起来与人类无异,几可以假乱真,人类可能会有意无意地将机器人视为同类。人形机器人不会被设定为与人类伙伴吵架或分手,不会被允许说谎,必须绝对服从人类。人们会乐意接受高度拟人的人形机器人,并将之视为自己的最佳伙伴。这也使得具身智能有了不同寻常的操纵能力。
自计算机诞生以来,技术对个人的影响越来越大。例如,网络游戏的数字和视频技术导致玩家入迷,使其忘记日常的忧虑、身体意识甚至自我意识。游戏设计的目的不只是为了让玩家放松,还能够让他们一直玩。通过重复的刺激和反馈,使得玩家处于强制循环当中。社交软件同样利用心理手段操纵用户。脸书(已更名为Meta)就发现通过新闻推送可以影响近70万用户的情绪。越来越多的人使用电子手环等设备监督自己的生活,如睡眠模式或饮食习惯等。人工智能正在借助“健康建议”告诉用户如何生活。当人形机器人深入家庭时,机器人可以更权威、更亲近地影响人的成长,约束人们的生活方式。人形机器人将成为一种操纵性技术,有能力影响人格发展。
(二)操纵能力对人格发展的影响
人格尊严意味着个人可以自由地决定自己的成长。当具有操纵能力的人形机器人承担社会角色时,人与机器人的关系将以前所未有的方式影响人的成长与发展。
首先,人形机器人可能会限制个体的自我决定。如果人工智能更有“权威”,个人的自主欲望将受到遏制,自我选择与判断能力无法养成与提升。人工智能已经具有智能性表象,凭借渊博的学识与超轻推的说服技巧,有能力使得相对人有意无意地接受人工智能的建议。但是,自我决定是成长的必经之路。专家机器人可能飞快地否定一些方案或给出行之有效的建议,但这也限制了个体的创造力和自我选择能力的培养。当看护机器人可以替代未成年人作出决定时,未成年人也在逐渐失去独立性和自主性。民法典第19条第2分句后半句规定未成年人有权从事与其年龄、智力相适应的民事法律行为。民法典之所以如此规定,就在于只有通过不断作出选择与做出行为,未成年人才能真正成长。诚然,未成年人的选择未必都是合理的,但如果剥夺未成年人自我选择的机会,既与未成年人的发展权不相容,也是在刻意忽视儿童不断增强的自主决定意识和能力。未成年人需要自由空间,以此获得数字生活体验以及有意识地、负责任地作出决定的机会。随着陪伴机器人、教育机器人深入家庭,人工智能可能会剥夺未成年人自我选择和自我决定的机会,阻碍未成年人的真正成长。
其次,人形机器人将误导未成年人的社会化。人在社会交往中不断学习并形成自我认知,最终建立身份认同和社会角色定位。人形机器人高度智能、“善解人意”又具备吸引人的外表,人类可能会更愿意与机器人相伴,而不愿意与人交流。目前,市场上已经推出陪伴机器人。在人工智能大语言模型的加持下,陪伴机器人能够提供个性化服务,将使得用户过于沉浸在自我的世界中,忽视了与他人的真实交往和互相学习的过程,阻碍个体的社会适应能力和团队协作精神的发展。人与人之间的交往是一个动态、复杂且微妙的情感交流过程,需要通过语言、肢体动作、面部表情等多种方式进行深度沟通和理解。陪伴机器人虽然能够模拟部分人类情绪反应,但始终不能代表真实的人际互动。如果让陪伴机器人照顾儿童和青少年,总是满足要求的陪伴机器人将使得未成年人缺乏真正的社交技能。未成年人的心智尚处于发展过程,他们的大脑结构与认知能力通常还不足以通过批评性思考来控制自己大脑的反应区域,而对基于情感的信息更乐于接受。长此以往,未成年人将在现实生活中遇到人际交往困难,比如缺乏有效的情绪识别能力、人际冲突处理技巧等,从而导致人际关系的疏离与冷淡。
最后,人形机器人可能会扭曲家庭道德伦理观念。社会对家庭的看法可能因为人形机器人深入家庭而发生根本变化。家庭观念、亲子关系以及忠诚度、贞操观等均可能受到冲击。如果人类更乐意与机器人相处,对传统婚姻和家庭生活将愈发冷淡,人类甚至会选择退出家庭生活。尤其值得关注的是,具有人的外观的亲密机器人(性爱机器人)可能导致人们对正常性行为的认知产生偏差,影响他们对待现实生活中的异性伙伴的态度。这不仅会模糊对他人身体自主权和个人尊严的认知边界,也有操纵异性的风险。因为亲密机器人不会反抗,可能会增加被操纵甚至施暴的可能性,诱发与强化个人的不良欲望。当人们养成一种不健康的对待人形机器人的习惯时,人类的最终行为模式也会受到影响。目前,已经存在一些类似儿童形象的性爱机器人,这更进一步严重触及的道德底线,正在严重扭曲社会价值观。
如果人形机器人的操纵能力严重影响人格发展,对整个社会都是一种灾难。遗憾的是,人们无法在人形机器人被投入使用前精确地预测可能产生的风险。社会不能沦为人形机器人的试验场。法律应及早介入人形机器人的研发与应用,以避免不可逆的损害发生。
二、人形机器人操纵性风险规范难题
在人工智能大语言模型的加持下,人形机器人具有操纵能力,对人类的人格发展构成威胁,由此引发规范的必要。但是,过早地监管技术,可能会产生阻却效应,影响科技创新与产业升级。发展与秩序的矛盾在人形机器人治理问题上格外突出。(一)科技规范的难题:科林格里奇困境
技术哲学家科林格里奇早在1980年就提出著名的“科林格里奇困境”,即如果因为担心不良后果而过早地对技术实施控制,很可能技术将难以创新和发展;反之,控制过晚,可能使得技术走向失控,带来昂贵的治理成本,甚至难以改变。当我们强调人形机器人的操纵性风险时,也应注意到人形机器人的社会经济效益,避免监管阻碍技术的发展。且不论人形机器人带来的万亿级市场,技术本就是解决社会问题、化解社会矛盾的一剂良方。人形机器人可以辅助医疗,减轻医师压力,缓解医疗资源不足的困境;可以帮助教学,与学生进行个性化地互动式学习,同时破解教育资源分配不均的难题;可以替代人类在危险、极端环境中工作,如核辐射区、深海探索等,最大限度地保护人的生命健康。囿于篇幅,下文仅以家庭看护机器人为例予以介绍。
老龄化是全球性问题。联合国报告指出,60岁或60岁以上的老年人口数量将在未来几十年中加速增长,到2050年,全球60岁以上人口将达到21亿。截至2021年底,我国60岁及以上老年人口达2.67亿,占总人口的18.9%;65岁及以上老年人口达2亿以上,占总人口的14.2%。预计到2035年左右,我国60岁及以上老年人口将突破4亿,在总人口中的占比将超过30%,进入重度老龄化阶段。老年人因身体机能下降,需要接受短期甚至长期的专门护理。中国新一代夫妇都有各自的事业,也面临沉重的职场压力。要求一方在工作之余承担护理义务,可能会使得护理人感觉疲倦或者变得易怒。如果部分家庭成员成为全职照护者,则会影响家庭的经济能力,使得家庭风险承受能力下降。现实中也有采取雇佣他人照顾或者将老年人送往护理中心的方式满足看护需求。然而,雇工虐待老人的现象已被广泛报道。失智或身体机能下降的老年人是极易受到伤害的群体,委托他人看护存在极高的道德风险。
与之相较,看护机器人可以全天24小时提供护理服务,且不会具有人类常有的负面情绪或性格缺陷。看护机器人可以改善老年人的生活,减少他们对家庭成员的依赖性,并创造更多的社交互动机会。例如,看护机器人可以提醒老年人服药,为老年人收取物件,执行简单的清洁任务,帮助老年人通过视频或电话联系家人、朋友和医疗机构等。已经有研究表明,与PARO等人形机器人互动可减少孤独感,改善老年人的社会关系和沟通。日本很早就进入老龄化社会,也一直重视老年人看护问题。自2013年10月起,日本政府就原则上不再批准增建养老院,而是鼓励研发和使用老年人家庭生活服务机器人,以解决居家养老中的看护难题。日本政府每年都有用于开发护理机器人的预算,被选中参与研发的企业,将获得高达研发成本三分之二的政府补贴。当然,也会有人质疑人形机器人是否真的能够替代子女给老人带来抚慰。即便人形机器人能够模拟情感,也无法真正替代亲情。欧洲议会法律委员会认为,人与人之间的接触是人类护理的基本要素之一,用机器人取代人的因素可能会使护理实践失去人性。如果老年人无法与家庭建立“有意义的持续联系”,总体健康状况将会更差,患痴呆症和死亡的风险将增加。老年人更深层次的情感需求应得到充分的重视。更为妥适的方式是,确定人类护理人员与机器护理人员的比例,适当分担家庭成员的看护压力。
在人类文明长河中,一些科技发挥破壁效果,使得原有复杂的社会问题迎刃而解。例如,印刷术推动思想解放,新能源缓解经济需求与环境保护的张力,在线教育解决教育地域不公平问题等。技术的正向价值使得政府在很长的时间内奉行“包容审慎”的监管理念。人们认为科研不应存在禁区,并相信科技进步将推动人类社会进入更美好的人工智能时代。“请求原谅、而非允许”甚至被推崇为“硅谷精神”,是科技公司成功的关键。在这一理念下,对人工智能活动的监管让位于行业的自我规制。但是,科技公司未必将风险防范视为重要目标,行业形成的一些监管规则要么对用户不公,要么成为初创公司的行业壁垒。人们逐渐认识到外部监管的重要性。“ChatGPT之父”Open AI首席执行官山姆·阿尔特曼就明确建议设立大语言模型许可制度、创建大型语言模型安全标准以及对模型安全状况进行外部审查。同理,人形机器人在被大规模应用前,也应满足一些规范性要求。人形机器人作为一种新型创造,必须在设计之初就防范操纵性风险,避免影响人格健全成长。毕竟新兴技术不应是孤立的产品或工具,而是科学、技术、经济、政治、社会、伦理和法律组成部分的组合,这些组成部分共同构成了一个技术方案。只是为了化解“科林格里奇困境”,我们应当寻找一种折中的规范框架,尽可能地实现人形机器人发展与安全之间的平衡。
(二)寻找平衡点的风险管理进路及其不足
对人形机器人的规范策略,反映了立法者应对未知的伦理观。极端谨慎的态度是,如果不能防范未知风险,就不允许新技术的应用。这一方案明显过于极端。与之相对,风险管理进路强调拥抱风险、容忍错误,对技术研发与应用更为友善。风险管理进路的模式是:首先,将损害界定为风险;其次,评估可能引发风险的行为;最后,采取特定的风险分类并配置相应的规范。在风险管理思想下,风险是以利益的名义承担的,风险成为主动选择的结果。2021年提出、2024年通过的欧盟人工智能法(AI Act)明确采取风险管理的方法规范人工智能活动。人工智能法序言第14条指出,法案遵循“基于风险的方法”(risk-based approach),对人工智能系统引入一套成比例且有效的约束性规则,即根据人工智能系统可能产生的风险的强度和范围来确定规则的类型和内容。然而,风险管理进路并非规范人形机器人乃至整个人工智能活动的理想方案。
风险管理以有效的风险评估为前提。风险评估本质是一种成本效益分析。风险只有被量化分析,才有可能与收益比较确定可接受的限度。欧盟人工智能法就将风险界定为发生损害的概率和该损害的严重程度的组合(第3条第1a款)。但是,风险具有不确定,风险发生的概率与严重程度无法事先估算。(1)对人形机器人的风险评估欠缺高质量的数据。风险评估需要的数据包括损害的程度、损害发生的概率、损害的地理和时间分布(普遍性)、损害的持续时间(持续性)、损害的可逆性等。在新技术被投入应用前,并不存在可供评估风险的数据。即便对于已投入应用的产品,提供的数据也未必具有参考性。人形机器人以ChatGPT、Gemini为代表的人工智能大模型为基础,大模型具有强大的自我学习能力,依据既有的数据无法预测未来。在缺乏高质量数据的情况下,我们难以较为精确地计算风险发生的概率与危害程度,也就无法借助成本收益法进行有效的风险评估。(2)目前并不存在可评估人形机器人风险的有效模型。对新兴技术的风险评估,将因延用旧有的分析框架而无法精确界定与测量风险。以化学材料为例,定量结构-活性关系(QSAR模型)工具可为普通化学品提供相当可靠的风险估计,但对多数纳米材料并不适用。纳米材料的毒性受化学结构以外的其它因素影响,包括尺寸、表面积、表面特性等。定量结构-活性关系并不能有效分析纳米材料的风险。如果使用旧有模型评估人形机器人活动带来的风险,评估结果同样不具有参考价值。例如,《医疗器械监督管理条例》《医疗器械生产监督管理办法》未必能够合乎预期地评估医疗机器人、护理机器人生产与使用带来的风险。当评估模型失效时,即便存在有效的数据,风险评估也将丧失说服力。
一旦风险评估在技术上丧失可靠性,对人形机器人的风险评估就容易沦为政治工具。当人形机器人的风险评估在技术层面遭遇障碍时,更易受到外部社会政治环境的影响。此时,财富生产的逻辑总能获胜。温迪-瓦格纳将外部政策环境对风险评估的影响评价为“科学骗局”,即用看似客观的技术评估为幌子,对技术的应用作出一项政策决定。瓦格纳指出,人们往往无法看到技术与政策之间的纠缠,因此难以发现披着科学外衣的政治选择。如果风险评估结果具有说服力,根据风险评估结果监管人形机器人,就具有合理性。反之,如果风险评估结果仅具有参考价值,风险管理就容易变成隐性的政策选择,依赖风险评估的控制阀门将有失效之虞。
除了风险评估问题外,风险管理进路也无法有效地分类风险。欧盟人工智能法将人工智能系统分为四个不同的风险类别分别配置规则:不可接受风险的人工智能系统是被禁止的,高风险人工智能系统必须遵守特定要求,限制性风险人工智能系统受到拘束较少,第四类最小风险人工智能系统则完全不受到限制。根据该法第5条第1款a项,如果人工智能技术能够明显损害知情决定能力,实质性地扭曲个人或群体行为,造成身体或心理损害的,就应被禁止应用。如前所述,深入家庭的人形机器人具有操纵能力,是否就属于明显损害自主权的扭曲行为?如果完全禁止具有上述风险的人形机器人的应用,可能也并不合理。人工智能法第7条第2款强调应当结合人工智能系统的目的、使用范围、处理数据的性质与数量、自动化程度、造成损害的程度等因素,判断人工智能活动是否会属于高风险。上述标准仍然具有巨大的弹性与模糊性。例如,以大语言模型为基础的生成式人工智能可能产生不实资讯,从而直接或间接地损害个人权益,但欧盟对于是否应将之归入高风险人工智能活动仍然存在争议。
欧盟采取的风险管理方法,并非在国际上获得普遍支持。美国就没有采取该方法规范人工智能活动。诚然,美国商务部国家标准与技术研究院(NIST)在2023年推出《人工智能风险管理框架(第一版)》(AI RMF 1.0),采用风险管理方法调整人工智能的开发、部署和运营。但该文件并非强制性的指导性文件,仅扮演“软法”的作用,组织可以自愿选择适用。美国目前存在两部直接规范人工智能活动的法律草案:联邦层面的算法责任法(草案)和华盛顿州的算法问责法案(草案)。两部草案并未全面界定风险及配置风险管理规则,而是试图通过行为规范调整人工智能活动。我国对网络活动的规范也未采用风险管理路径,而是表现出一定的主体进路特征。例如,我国网络安全法第三章规定网络运营者(尤其关键基础设施运营者)的义务,数据安全法第四章要求开展数据处理活动的主体应承担一系列数据安全保护义务,个人信息保护法第五章同样强调个人信息处理者的特殊义务,且针对超大型平台经营者有专门的规定(第58条)。一些法律文件明确表示采取基于主体的规范策略。例如,2021年10月,国家市场监督管理总局公布了《互联网平台落实主体责任指南(征求意见稿)》,要求平台企业应落实算法主体责任;2022年3月1日实施的《互联网信息服务算法推荐管理规定》第7条专门规定了算法推荐服务提供者的算法安全主体责任。只是我国于2023年签署了由英国主导的《布莱切利宣言》,该宣言明确指出各国应“识别共同关注的人工智能安全风险”,“根据这些风险,在我们各国制定各自的基于风险的政策”。我国未来对人工智能的立法可能会转向采取风险管理方法。在这一背景下,我国更应清醒地认识到风险管理方法的弊端,避免受到布鲁塞尔效应的影响,“照本宣科”式地进行立法。
或许是受到“风险社会”观念的影响,人们下意识地选择风险管理方法调整人工智能活动。但是,风险管理方法不同于风险社会理论,后者是展现后现代社会家庭、职业、知识以及外部自然环境等因素的风险特征,前者则是一套基于成本收益分析的社会管理方法。风险管理方法未必是规范新兴科技的良方。对人形机器人的治理,应在充分认清人形机器人活动本质的基础上,充分利用既有的规范工具,设计一种复杂的规范框架。
三、专精科技与赋能科技二分下的人形机器人复杂治理框架
善治,是以充分了解被治理对象为前提。如果只是基于一种主观判断设计规范,这种判断未必能够与现实问题相对应,是否有足够的张力,体现了何种程度的偏差或遗漏,也不得而知。只有充分了解人形机器人的特性,我们才能适配地设计相应的规范框架。
(一)人形机器人的专精科技与赋能科技属性
人形机器人同时具有专精科技与赋能科技双重属性。科技可以大致被划分为专精科技和赋能科技两类,前者侧重于深度与专业性,后者则注重于应用与提升能力。人形机器人同时属于专精科技与赋能科技。一方面,人形机器人研发是一项专精科技,致力于突破当下人工智能、肢体协同等技术瓶颈,目的是实现科技飞跃;另一方面,人形机器人可以跨领域地产生影响,在诸多场景中发挥不同的功能,如陪伴机器人、看护机器人、亲密机器人等,具有赋能科技的特点。
人形机器人研发属于一项专精科研活动。《人形机器人创新发展指导意见》指出,人形机器人的推广依赖于“大脑、小脑、肢体”等一批关键技术的突破。人形机器人“大脑”的健全与完善需要突破感知-决策-控制一体化的端到端通用大模型、大规模数据集管理、云边端一体计算架构、多模态感知与环境建模等技术;要想人形机器人拥有“小脑”,则需要开展高保真系统建模与仿真、多体动力学建模与在线行为控制、典型仿生运动行为表征、全身协同运动自主学习等关键技术研究;面向人形机器人高动态、高爆发和高精度等运动性能需求,还需要研究人体力学特征及运动机理、人形机器人动力学模型及控制等基础理论。人形机器人的设计明显属于科技活动,情感操纵、超轻推等问题也部分是因为科研活动不规范产生的。是以,对人形机器人规范必然涉及科技法领域,人工智能研发活动必须遵守特定的科技伦理。
人形机器人应用是技术与场景的叠加或结合。一旦实现技术突破,人形机器人可以根据场景需求,而呈现出不同的表现形式,如陪伴机器人、看护机器人以及亲密机器人等。《人形机器人创新发展指导意见》也意识到人形机器人技术的赋能性,指出应首先研发出基础版人形机器人整机,打造“公版”通用平台,然后支持不同场景需求下的结构改造、算法优化以及特定能力强化。人形机器人应用是人工智能、感应与肢体等技术在不同场景中的赋能应用,需根据场景需求有所调整。例如,人形机器人在医疗、家政等民生领域的服务应用,当然应有不同于面向民爆、救援等特殊环境的机器人的设计与功能。从某种意义上说,人形机器人应用是“方式”与“领域”“赋能”与“本体”的叠加与结合。
承上,人形机器人技术具有专精科技与赋能科技双重属性。这一双重属性使得人形机器人规范经常面临鼓励科技创新与捍卫人的主体地位、促进经济发展与保障安全等多元价值之间冲突。对人形机器人的治理,必须区分科研活动与应用活动,分别实现不同的规范目标。
(二)科技系统与应用系统对人形机器人操纵性风险的不同规范方法
出于对逻辑清晰与规范明确的追求,权力机关容易在单一理论指引下设计规范框架。欧盟的人工智能立法就是依据风险管理理论设计的。但是,单一模型容易过度简化法律关系,使得规则适用欠缺张力。
在立法认识论上,试图抓住本质、化繁为简的努力往往不易成功,很多时候是表面上似乎对认识对象一目了然了,但是实际上却并没有真实反映复杂社会的实际情况,相反导致认识对象被过度简化,包括对许多重要特殊或分叉情况的不当忽略。所以,现代认识范式越来越偏爱类型化,希望通过揭示更多复杂性、多样性,甚至深入具体现象或存在场景中来细化理解。对人形机器人的规范,未必需要借助一套新的治理范式。既然我们已经认识到人形机器人具有双重属性,完全可以在区分科技系统与应用系统的基础上应对人形机器人带来的挑战。
1.强化人形机器人研发的科技伦理科技伦理是科技系统的自我约束机制。科学并非全然有益,一些科学研究的危害性甚至胜过其学术性。奥地利哲学家拉维兹指出存在四种“坏科学”,其中就包括盲目的科学和肮脏的科学,前者是指科研活动对可能产生的不可逆后果缺乏必要的伦理评估,后者则是指科研活动使科学家们突破人类道德的底线。人们逐渐认识到,科技并非文明,科研活动也应受到规范。负责任的创新(Responsible Innovation)受到广泛重视。科学家们强调,科研活动应遵守负责任的创新,在研发过程中具有预见性、反思性、审议性和回应性。科技伦理越来越受到关注。中共中央办公厅、国务院办公厅于2022年专门印发《关于加强科技伦理治理的意见》,明确强调科技伦理的重要性。唯需注意,伦理原则只有规则化,才能真正发挥作用。一方面,伦理原则过于模糊,如果没有具体的规则,伦理原则难以落地。另一方面,伦理原则不具有法律上的约束力,在没有明确法律义务的情况下,科研人员会缺乏足够的诱因遵守伦理原则。是以,应通过将科研伦理成文法化的方式,防范人形机器人的操纵性风险。下文以人形机器人的外观设计与情感计算为例说明之。
人形机器人的外观设计应避免产生过度操纵性、物化女性等风险。人形机器人具有拟人化的外观,能够引发人类的心理投射。人类对于任何人形物件产生共情,这是自然的心理倾向。但是,人形机器人的设计过于迎合人的喜好,容易使得人对人形机器人产生类似友谊的积极感觉,使人对机器人产生错位的感觉或者过于信任机器人。拟人化外观是人形机器人具有操纵性效应的重要原因。如果人形机器人过于逼真,还可能产生“恐怖谷”效应,使得用户感觉不适甚至恐惧。人形机器人不能过于逼真。人工智能设计的首要标准应是,找到人形机器人最适宜的类人程度,使人在与人形机器人的互动交往中能够激发人对人形机器人的喜爱之情,而不至于被心理操纵或心生厌恶。除此之外,目前的人形机器人倾向于使用女性声音与形象,也有物化女性的嫌疑。在人形机器人设计中,应当提供不同的性别设计,避免助长不良价值观。陪伴机器人的设计,不能一味满足用户的需要,应嵌入与推广社会伦理。
人形机器人的情感计算能力在设计时就应受到控制。科研工作者应在设计环节评估人形机器人的情感计算能力,控制其不利影响。人形机器人有能力通过情感系统对用户进行情感操纵和影响。研发人员必须对情感设计的伦理道德进行风险评估。在设计陪伴机器人时,应事先设计禁止超轻推或操纵的选项,以便允许用户事先地关闭该功能。此外,设计者必须对无法作出知情同意的弱势群体(如老人、儿童、残疾人等)提供额外的保护,例如当人形机器人识别出弱势群体时,自动关闭具有潜在风险的心理操纵功能,包括但不限于虚假情感表达、性服务等。人形机器人研发者在设计阶段必须对人形机器人进行妥当地影响评估,并采取有效措施确保价值对齐。
2.人形机器人赋能应用的“法律—法规—政策”协同治理随着人形机器人深入社会方方面面,受到新技术激扰的社会,也会形成一些回应性机制。法律当然是社会回应挑战的有力工具。倘若人们将法律系统视为一种将开放的未来纳入全社会中进行拘束的方式,那么法律系统就是全社会的免疫系统。但是,人形机器人应用呈现为从场景到场景的现象罗列,增加了设计统一规则的难度。不同应用场景中的人形机器人引发的法律问题未必相同。法律系统借助抽象的权利义务制度回应这一挑战。
人形机器人相对人应充分享有知情权与请求人工干预权。不论在何种应用场景中,均应确保相对人的知情权以及人工沟通的权利。其一,个人有权了解被操纵的风险。人形机器人具有超轻推、情感模拟功能,个人应有权了解这一情况,从而意识到自由意志有被扭曲的可能。知情权是确保人的主体地位的前提与基础。即便是治疗性人形机器人,在修复病患心理创伤之前,也应告知病患,尊重病患的自主决定权(民法典第1219条)。只有借助对人工智能系统相对人知情权的保护,我们才有可能实现以人为本的人工智能治理。其二,人形机器人相对人应享有人工沟通权。人形机器人深入人们生活的,将替人类作出决定。例如,医疗机器人、看护机器人可以决定是否允许或禁止病患或老人、未成年人进行特定行为。如果相对人对人形机器人的决定不满的,应有权与医疗人员、监管人员或者机器人服务提供者进行有意义的沟通。只有保证相对人表达意见、获得人为干涉的权利,个人才不会沦为机器的客体。欧盟通用数据保护条例(GDPR)第22条第3款专门规定算法相对人请求人工干预的权利。相较而言,我国个人信息保护法第24条第3款仅规定请求说明算法和拒绝算法决定的权利,并未规定人工沟通的权利。在人工智能时代,与人进行有意义沟通的权利,是捍卫人的主体地位、实现以人为本的人工智能善治的基础。是以,人形机器人相对人应有权请求与相关主体进行直接的有意义的沟通。
人形机器人提供者与服务者应承担人为监督、确保系统安全可靠的义务。其一,人形机器人设计应留有适当的人机交互界面,以便对人形机器人运行进行有效的监督。人为监督旨在及时发现人形机器人的功能异常和性能突变迹象,纠正自动化偏差,手动控制或逆转输出结果。当人形机器人的操纵性能力可能会不可逆地造成损害时,人形机器人提供者和服务者应有能力随时“一键关闭”相关功能,保护人形机器人相对人的身心安全。其二,人形机器人提供者与服务者应当维护人形机器人的稳定性和安全性,尤其是使得人形机器人具有自我复原的能力。恶意第三方可能通过“脏数据”、系统漏洞等改变人形机器人的运作模式、性能以及输出结果。人形机器人提供者与服务者可以有针对性地通过提供备份、补丁和安全解决方案等技术冗余方案保护系统的稳定性与安全性。
法律具有刚性,不能满足灵活规范科技应用的需求,应当借助法规、政策及时回应日新月异的科技发展带来的挑战。法律是社会的免疫系统,但是免疫并不总是有益,有时会徒增烦恼(如花粉过敏)。法律规范可能会因过于刚性而阻碍人工智能产业的发展。是以,对人工智能应用的规范需要借助法律,但也应该保留弹性,使得其他具有监管功能的机制能够调整人工智能应用活动。我国未来的人工智能法应该留出必要的空间,使得法规、政策能够充分发挥作用。下文以合规认证、监管沙箱为例介绍之。(1)法秩序可以通过出台专门法规的方式,要求人形机器人产品和服务接受合规认证,以充分发挥行业的自我规范作用。人形机器人行业中具有合规评估能力的企业可以申请成为合规评定机构,为市场提供合规评定服务。借助专业的合规评估,企业的力量将被引入人形机器人治理领域。当然,企业要获得认证资质,应当满足一定的条件。相关行政法规可以专门规定,合规认证企业应当拥有规定人数的经过行业协会考核通过的认证职员;不得从事与合规认证以外的营业,尤其不得提供人形机器人的研发与推广;不应与被评估企业存在任何形式的利益关联等。通过合规认证的企业可以获得专门的合规标识,相对人将通过该标识选择需要的产品或服务。(2)政府可以通过设立监管沙箱的方式,在推动人形机器人尽快进入真实市场的同时,检验既有监管框架的实际作用,积累监管经验。监管沙箱是一种由监管机构依据法律规定设立的受控测试环境,在限定时间内允许人形机器人进行开发与测试。英国科学创新与技术部指出,监管沙箱能够帮助迅速将新产品和服务推向市场,产生经济和社会效益;检验监管框架在实践中的运行情况,揭示需要解决的创新障碍;确定监管框架需要适应的技术和市场的调整方向。政府可以基于一些特殊的考虑,在特定地域或领域设立监管沙箱。例如,日本就专门划出特定地域和场景布局人工智能产业,如福冈(道路交通)、关西(无线电)、京都(数据保护)、筑波(安全治理和税收规制)等。我国可以在看护机器人、陪伴机器人等应用上设立监管沙箱,帮助确立监管框架,从而摆脱“操之过急”或“听之任之”的弊端,在摸索中寻找妥适的治理手段与工具。
承上,人形机器人具有专精科技与赋能科技双重属性,对其治理也应在科技系统与应用系统两个层面展开。人形机器人研发属于科技活动,应强化科技伦理,在设计阶段防止操纵性效应带来的不利影响;人形机器人赋能诸多场景可能导致原有秩序异化,应借助抽象的权利义务规则,确立基本的规范框架,并辅之以法规、政策等灵活的治理工具,实现发展与安全之间的平衡。
余论:充分发挥人形机器人操纵能力的正向功能
未来已来,只是尚未流行。人形机器人终将深入千家万户,在便利人们生活的同时,也会引发操纵效应等诸多问题。但若我们总是以如临大敌的心态对抗科技进步和治理模式创新,就未免过于悲观了。情感是智力的一个核心方面。情感并不是理性的障碍,情感是理性不可或缺的一部分。人形机器人可能会阻碍我们的情感,抑制人与人之间的深层联系,但也可能帮助教化人类。研究表明,机器人有能力改变我们的合作方式。如果团队中存在一个偶尔出错并积极承认错误和主动道歉的人形机器人,该团队将相较于其他团队取得更好的成绩,因为人形机器人改善了人类成员之间的合作与交流。在人工智能大模型技术的加持下,具备拟人外观的机器人将充分发挥情感计算能力,帮助我们更好地生活。是以,对人形机器人的规范,不应完全禁止人形机器人具有操纵能力,而是应通过科技伦理、权利义务等手段规范科研活动与应用活动,趋利避害,促使科技向善而行。
往期精彩回顾
谢琳|人形机器人自主侵权的责任认定沈伟伟|人形机器人事故责任制度的困境及应对
王华伟|论人形机器人治理中的刑法归责
李晟|人形机器人的法律治理基本架构
张欣|论人工智能体的模块化治理
商希雪|人机交互的模式变革与治理应对——以人形机器人为例
上海市法学会官网http://www.sls.org.cn