《东盟人工智能治理和伦理指南》解读
随着数字化时代的到来,人工智能已经成为推动社会发展的关键技术,在经济、文化等领域发挥着重要作用,推动了社会治理方面的智能化和数字化。然而,随着AI技术的广泛应用,其潜在的伦理和治理问题也日益凸显。因此,为了保障AI技术的安全使用,东盟(ASEAN)发布了《东盟人工智能治理与伦理指南》(ASEAN Guide on AI Governance and Ethics),旨在为区域内的组织提供设计、开发和部署AI技术的指导和规则。本文主要对《东盟人工智能治理和伦理指南》进行解读,概括了该指南的主要内容,总结指南对区域内组织AI技术治理和伦理以及法学的重要性,分析该指南中AI治理的一些潜在问题和漏洞,并对此提出尝试性建议和方案。
1
主要内容概述
《东盟人工智能治理与伦理指南》共分为引言、指导原则、AI治理框架、国家级建议、区域级建议、结论六个部分,涵盖了AI治理的七大指导原则和国家级建议和区域级建议等行动方案和规范建议,为AI治理和伦理提供了方向引领和导向框架,为组织提供了一个行动蓝图,助力各地区和组织的AI系统开发和部署符合伦理标准和社会期望。
在指导原则方面,指南涵盖了AI治理的七大指导原则:透明度与可解释性、公平性与公正性、安全性、以人为本、隐私与数据治理、责任与诚信、以及鲁棒性与可靠性。透明度和可解释性原则要求组织在使用AI系统时向利益相关者披露相关信息,并且要求能够向非专业受众清晰地解释AI系统的决策过程,这有助于建立公众对AI的信任,并确保用户能够做出知情的决策。公平性与公正性要求AI系统的设计和部署应避免加剧或放大现有歧视或不公平影响,并且确保AI系统的算法决策不会导致对不同人群的不公平偏见或歧视。安全性原则要求AI系统应能够抵御恶意攻击,确保开发者、部署者和用户的安全,并且保护AI系统免受数据泄露和其他数字安全风险的侵害。以人为本原则要求AI系统应以促进人类福祉为目标,并在设计、开发和部署过程中考虑人类价值,并确保AI系统不会用于恶意目的或欺骗用户做出不利于他们或社会的决策。隐私与数据治理原则要求AI系统应尊重数据隐私和保护,并在整个生命周期中维护数据的质量和完整性,同时应建立数据治理框架,并遵守适用的数据保护法律和道德原则。责任与诚信原则要求组织应确保AI系统的适当运作,并遵守适用的法律、内部AI治理政策和伦理原则,并在AI系统出现故障或被滥用导致负面结果时,应采取诚信行动并实施缓解措施。鲁棒性与可靠性要求AI系统应足够强大,能够应对执行过程中的错误或意外输入,并在压力环境下保持一致的性能,同时部署者应进行严格的测试,以确保在各种情况和环境中的鲁棒性和一致结果。
国家级建议主要关注于如何负责任地设计、开发和部署人工智能(AI)系统,并确保这些系统符合国家和企业价值观,以及更广泛的伦理和社会规范,并给出了培养AI人才和提升劳动力技能、支持AI创新生态系统和促进对AI初创企业的投资、投资AI研究与开发、提高公民对AI社会影响的认识、促进企业采用有用的工具以实施东盟AI治理和伦理指南等建议,希望帮助东盟地区的组织和政府负责任地设计、开发和部署传统AI系统,并增加用户对AI的信任。
区域级建议关注的是推动和实现东南亚国家联盟(ASEAN)成员国之间的合作与协调,以确保在该地区内负责任地设计、开发和部署人工智能(AI)系统,并提供了建立区域性工作组、适应性指南、用力汇编等建议,旨在促进东盟成员国之间的政策一致性,提高AI治理的效率,并确保AI技术的负责任使用。
2
指南的意义
东盟人工智能指南以透明度、公平、以人为本、问责制和鲁棒性等核心原则为指导。其实用建议涵盖从设计到部署的人工智能生命周期,为组织和企业协调实践和建立公众信任奠定了坚实的基础。具体而言,该指南的意义如下:
首先,该指南能够促进AI技术的发展和进步。该指南鼓励人们建立负责人的AI系统,有利于规范AI技术,防止其被滥用和误用。同时,指南建立了一系列比较全面的治理原则和框架,有利于促进AI技术的各地区的一致性,能够帮助人们更加具体方便地规范建立AI系统和提升AI技术。在具体方面,指南通过价值导向和倡导型建议等方式,鼓励政府和企业加大AI技术研究的投资和开发,促进AI技术最新成果的产出;鼓励不同区域和国家进行合作和协作,从而促进AI技术不同地区之间的相互交流,促进AI技术研发的国际合作。
其次,该指南有利于提升AI技术的伦理治理。指南中提供了七个指导原则,有利于规范AI系统的伦理治理,并促进公众对AI系统的信任。指南所提到的“公平性与公正性”、“透明度与可解释性”等原则规范了AI技术发展框架,有利于AI系统的开发和部署遵守伦理和相关的法律标准,规范AI系统的使用。而“以人为本”、“鲁棒性与可靠性”等原则,降低了AI技术数据泄露的风险,通过提供评估和管理与AI相关风险的框架,可以缓解AI系统的潜在的负面影响,从而推动AI技术的稳健发展。同时,指南所倡导的AI技术系统和所支持的加大公众对AI技术的了解的做法,有助于建立公众对AI技术的信任,并促进其在社会中的广泛接受和使用。
再次,该指南多次提到AI与法律的结合,其对法学发展具有重要作用。该指南提供了AI技术治理的原则,可以作为国家和区域制定AI的相关的法律法规的基础,指南的出现就有利于法学家提前理解和分析AI技术的潜在风险和相关法律的价值导向和伦理原则,促进有关AI技术伦理治理的法律法规更快落地。在具体方面,指南强调了数据隐私保护的原则,这也个人数据保护的研究紧密相关,有利于促进AI与隐私保护相关的立法。同时,该指南鼓励在教育方面增加对爱技术治理与伦理的教学,有利于增加公众对于AI法律的相关了解,使他们更好地理解和应对AI技术带来的相关法律问题。
此外,该指南采用基于风险的方法来确定不同人工智能决策过程的必要人工监督水平,能够在减少风险框架下兼顾监管的灵活性;该指南提出关于培养人才、支持创新、投资研发和提高公民意识的建议也是及时而全面的。
3
问题以及风险
《东盟人工智能治理和伦理指南》作为具有开创性意义的有关AI技术治理与伦理的文件虽然促进了AI技术、法学等诸多领域的发展,但是其部分的内容的实行仍然存在一些潜在的问题和漏洞。
首先,虽然指南中规定了“透明度与可解释性”原则,但是某些算法比较复杂的AI系统或者软件,由于其底层逻辑是从庞大的数据网中搜索信息并进行分析解读最后产出结果,其内部的运算过程和工作机制AI本身可能无法阐述而使用者或者操作者也无法进行理解和解释,这就导致了“黑箱”问题,即外部观察者无法清楚地了解AI系统运算和决策的全过程,从而无法严格达成“透明度和可解释性”原则的标准,这种“黑箱问题”就极有可能降低人们对于AI的信任,比如在医疗诊断中,一个AI系统给出了一个治疗方案,但是以医生的知识储备无法对其进行解释,此时患者就会对AI系统的结果产生疑虑,产生与“透明度与可解释性”相悖的矛盾。除了技术难题,还有不同地区对透明度要求不统一等客观原因,因商业机密不愿泄露AI算法过程,不同知识水平的人的解释门槛等主观因素也是阻碍“透明度与可解释性”原则贯彻实施的障碍。
其次,“公平性与公正性”原则要求AI系统减少甚至是消除歧视和现有的不公平观念,但是由于AI系统一般是从数据库中寻找素材再进行运算,AI系统存在偏见的可能性很大程度上取决于数据偏见。如果喂给AI系统的数据本身存在偏见,或者某一种类的数据投喂的比较多,而相反种类的数据投喂的很少甚至不投喂,这种情况下就可能导致AI系统模仿甚至是放大这些偏见,从而呈现出结果上的不公平性,比如一个面部识别系统主要在具体特定种族特征比如白人的数据上进行训练,那么它可能在识别其他种族个体比如黄种人和黑人的时表现不佳。另外,AI系统的性能受限于其可利用数据的质量和多样性,而不同AI系统的数据池的广度和深度不同可能导致不同的AI系统对同一问题的处理结果不同,而这其中就会存在偏向性,比如最近较为热议的Mate的AI图像生成器无法准确生成“亚洲男性和白人妻子”或者“亚洲女性和白人丈夫”这类图像,从而引发关于种族和人种歧视的矛盾。因此贯彻“公平性与公正性”原则和消除AI歧视,只对AI系统进行规范和调教是无法达成目的的,更大的阻碍在数据来源上。
再次,指南中要求AI系统需要遵守“鲁棒性与可靠性”原则,即AI系统需要兼具对偏差的灵活的应对力和在不同情况中的一致性,但是在现实对AI系统运算模型的设定中,这两者的平衡是难以把握的和校准的。如果过于强调鲁棒性,那么就会导致AI系统对环境变化的敏感性,即AI系统可能对于输入数据的微小变化过于敏感,导致AI系统的普世性降低,在现实世界的应用不稳定,比如在图像识别任务中,对于同一种物品由于光照、角度和周围环境的变化而产生不同的识别结果,导致无法准确识别物品。而如果过度强调可靠性,那么由于AI系统主要依赖的是发生过的数据进行分析,用这种“过时”的数据进行分析的AI系统所做出的决策的准确性可能会随着时间的推移而下降,比如一个用于股市预测的AI系统可能会随着市场条件的变化而准确性会逐渐下降。除了把握两者平衡性的问题,在可靠性上,由于AI系统的只能依据过去的数据进行分析,因此在未来的事件的预测上准确性会降低,例如天气预报中,对未来的天气预测是基于过去的相关条件的气候变化进行预测的,有时会出现误差。
最后,指南虽然给出了国家级建议和区域级建议,但是在落地实施中可能会遇到一些困难。比如,不同地区和国家之间对于AI技术治理的监管和审查的程度和水平是不同的,相关的法律规定也存在显著的差异,因此同一个AI模型在不同国家和地区中所接受的规范要求也是不同的,而标准的不同可能就会导致研发导向的不清晰和矛盾。除此之外,不同国家和地区的文化和价值导向的不同可能会影响当地人对AI技术治理和伦理的理解程度和接受程度的不同,导致AI系统的跨区域协作遇到阻碍,比如不同地区对于面部识别态度的不同,有些地区可能对这种技术不置可否,但是也有一些地区认为这是侵犯隐私的。因此,指南虽然给出了建议和原则,但是想要在区域内或者不同国家间落地,仍然存在现实困难和阻碍。
4
解决办法以及优化
回顾上述指南涉及的问题和风险,主要集中在AI治理的透明性、稳定性与灵活性等技术问题和公平性等伦理问题,以及在区域内大环境下如何实现AI跨区域协作的问题。
首先,关于AI决策过程的透明性以及公众对于AI系统结果的信任度的问题,笔者认为可以在研究与开发AI系统的过程中,进行AI系统运算过程的可视化的设定,发展“可解释的AI”,使这些AI模型在呈现决策结果的同时呈现出决策过程的清晰和简洁的解释,从而在源头上解决问题。如果上述措施因为技术问题无法实现,那么也可以对AI进行检测和管理,对于无法给出运算过程的AI系统由专业人士进行解答或者给予无法信任这个AI系统的人人工咨询的通道。对于因商业机密而无法公布AI算法的情况,可以由AI系统的相关负责人向特定的监管机构披露算法,并由此监管机构出具鉴定材料从而打消用户的疑虑,同时负责人也可以选择向部分相关利益人进行算法披露,这种做法能够比较有效地防止商业机密的泄露和知识产权的侵犯。关于公众信任的问题,首先可以通过教育或者宣传提高公众对于AI技术的优缺点和局限性的理解,在提高公众对AI技术的谨慎的同时可以适度相信比较可靠的AI系统。除此之外,可以在AI模型上涉及较为直观的用户界面,帮助用户更加方便快捷地了解AI系统的算法过程,并设置反馈机制,使用户能够快速高效地表达自己的诉求,同时也可以帮助AI系统不断地提高和完善。
其次,在稳定性与灵活性的问题上,不同领域、不同复杂程度的AI系统关于这两者调和的标准点不同,因此无法给出明确的标准。在保证AI系统的鲁棒性的前提下,可以通过给AI系统投喂多样化的数据,进行不同环境和情景的集中训练来提高AI系统对于不同输入和差别输入的适应性和辨别力,从而降低AI系统对于环境变化的过度敏感性。同时,可以为不同的AI系统根据其适用情景和用户需求设置不同标准的容错空间,同时也可以让AI系统在检测到作物或者不确定性时采取保守行动或者请求人工干预,以保证AI结果的正确性。同时也可以加强AI技术的自适应学习算法,提高AI学习新知识和处理新数据的能力,以应对不同的环境变化,避免更加敏感。为了保证AI系统的稳定性,可以加快更新数据库,使AI系统能够根据最新的数据进行处理来得出结果,避免因数据过时而导致AI系统的结果质量下降,同时加大技术研究,学习最新的AI技术和研究成果,从而保持AI技术的先进性,提高AI系统的算法效率和质量。同时为了帮助AI系统更快地获取新的数据,可以设置增量学习模型,即AI系统在接受新数据时能够自主调整模型,而不需要重新进行训练,降低AI系统的过时性。
关于AI系统跨区域协作的问题,笔者认为可以从地区协调和技术提升两方面进行解决。首先,不同地区之间可以通过建立国际组织或者区域性组织,加强各地区的交流融合和对话协作,比如东盟和欧盟,从而减少地区的法律、文化等差异,降低AI系统全区域实行的技术难度。除此之外,可以专门针对AI技术和系统设立AI技术通用性标准,在照顾各个地区不同差异的同时,尽量制定国际通用的专门的AI治理和伦理标准和一致的法律规定和框架。其次,对于需要跨区域协作的AI系统需要加大技术研究,在研发和实践时加入本地化差异化的设定,在考虑不同文化和价值的前提下,使不同地区的AI系统能够更加贴合当地的文化特色和法律规定,即在AI系统的同一的基础算法逻辑的基础上,进行差异化定制,使不同地区具有专门特色。但是,在设计AI系统时,要注意技术和数据的中立,避免带有偏见的数据或者技术的添加,导致AI系统本身带有文化偏见,从而产生文化矛盾和冲突。
《东盟人工智能治理和伦理指南》的发布旨在引导东盟区域内组织负责任地设计、开发和部署AI技术,确保AI系统的使用符合伦理标准和社会期望。但是,尽管指南为AI治理与伦理提供了全面的框架,但是在实施过程中仍然存在一些潜在风险和挑战,需要进行一些应对措施。例如,有建议指出,东盟首先应尽快成立《指南》中提出的人工智能治理工作组,各东盟成员国任命一名人工智能大使,这将创建一个授权组织来推动实施、监督工作进展、分享最佳实践并与对话伙伴进行互动。更重要的是,这些大使可以在本国背景下倡导人工智能治理,并代表地区内的国内问题;东盟成员国还应就高风险人工智能应用(特别是具有军事影响的应用)制定具有约束力的东盟条约或行为准则展开讨论。虽然就具有法律约束力的措施达成一致比就自愿指导达成一致更具挑战性,但这是减轻人工智能存在风险并防止其滥用的必要步骤。[1]
参考文献:
[1] NGO DI LAN. Beyond the Guide: Navigating the Next Phase of Artificial Intelligence Governance in ASEAN, 25 APR 2024,available at https://fulcrum.sg/beyond-the-guide-navigating-the-next-phase-of-artificial-intelligence-governance-in-asean/.
撰稿 | 陈安琪,清华大学智能法治研究院实习生
选题&指导 | 刘云
编辑 | 王欣辰
注:注:本文为清华大学大学生研究训练计划(SRT)项目“人工智能立法中的重难点问题研究”(项目编号:2411T0813)阶段性成果之一。