查看原文
其他

加拿大政府发布《加拿大生成式人工智能行为守则》

AI与网络法团队 AI与网络法 2024-01-08

编者按



编辑丨 曾晓洋 吴梓聪 黄丹敏 李卓霖  



【背景介绍】


2022年6月,加拿大政府提出了《人工智能与数据法》(AIDA),作为《2022年数字宪章实施法案》(C-27法案)的一部分。《人工智能和数据法》是实施《数字宪章》和确保加拿大人可以信任他们每天使用的数字技术的一个重要里程碑。该法案旨在适应人工智能技术的新发展,并为加拿大政府监管人工智能系统(包括生成式人工智能系统)提供法律基础。AIDA中提出的框架是建立新监管体系的第一步,旨在引导人工智能创新朝着积极的方向发展,并鼓励加拿大人和加拿大企业负责任地采用人工智能技术。


【本文主要内容】


2023年8月16日,加拿大政府宣布了制定生成式人工智能实践准则的计划,并发布了生成式人工智能实践准则的潜在要素,分别为安全、公平和公正、透明度、人为监督和监测、有效性和稳健性以及问责制,并提出了相应的措施。该行为准则将由加拿大公司在《人工智能和数据法》(AIDA)生效之前自愿实施。目前,该行为守则正在征求公众意见。


一、意义

加拿大政府指出,该行为准则旨在确保生成式人工智能系统的开发者、部署者和操作者能够避免有害影响,并建立对其系统的信任等,还将帮助加拿大对国际社会就应对生成式人工智能风险的建议进行积极审议。


二、潜在要素

  • 安全

要求在系统的整个生命周期中全面考虑安全问题,特别是在滥用方面。系统的开发者和部署者要确定系统可能被恶意使用以及可能吸引有害的不适当使用的方式。


  • 公平和公正

必须确保模型是在适当和有代表性的数据基础上训练出来的,并提供相关、准确和无偏见的输出结果。系统的开发者需要评估和整理数据集,开发人员、部署人员和操作人员需要采取措施评估和降低产出偏差的风险。


  • 透明度

必须确保个人意识到他们是在与人工智能系统或人工智能生成的内容进行交互。系统的开发者和部署者要提供可靠、免费的方法来检测人工智能系统生成的内容,并对系统开发过程进行有意义的解释。系统的操作者需要确保将可能被误认为是人类的系统明确而醒目地标识为人工智能系统。


  • 人为监督和监测

系统的部署者和操作者在系统的部署和运行过程中提供人工监督,开发者、部署者和操作者实施相关机制,以便在系统投入使用后发现和报告不利影响。


  • 有效性和稳健性

为了确保人工智能系统按预期运行,并在其可能面临的各种情况下具有弹性,系统的开发者需要在各种任务和环境中使用各种测试方法,开发人员、部署人员和操作人员需要采用适当的网络安全措施,防止或识别对系统的恶意攻击。


  • 问责制

确保遵循全面的风险管理流程,生成式人工智能系统的开发者、部署者和操作者应当确保整个人工智能价值链上的员工了解他们在这一流程中的角色。系统的开发者、部署者和操作者应做到:1. 建立多道防线,以确保其系统的安全性;2. 制定政策、程序和培训,以确保角色和责任得到明确界定。


以下是该行为准则的原文翻译。我们以机翻为主,并进行了人工微调,供各位读者参考。







声    明

本文的所有内容均来自公开的资源和第三方,包含的链接可能会指向其他网站或资源,这些网站或资源并不由本公众号控制或拥有。本文不代表编辑的观点,以及编辑供职机构或其他相关机构的意见。本文仅为交流之用,如有任何意见,可以公众号后台私信提出。


关于AI与网络法团队:

我们的目标是原创与分享人工智能和网络法领域最前沿的文章与资讯,为中文世界带来更多的知识增量。


本次内容参与贡献的有:

曾晓洋,广东财经大学智慧法治研究中心研究人员

吴梓聪,广东财经大学智慧法治研究中心研究人员

黄丹敏,广东财经大学智慧法治研究中心研究人员

李卓霖,广东财经大学智慧法治研究中心研究人员


联系方式:

cyberlaw2018@outlook.com


更多往期文章请点击:


继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存