首页
下载应用
提交文章
关于我们
🔥 热搜 🔥
1
1
2
1'"
3
1'
4
@妖精视觉
5
@亘古
6
@artag
7
抖音
8
@佛山综合
9
@两性
10
张靓颖
分类
社会
娱乐
国际
人权
科技
经济
其它
首页
下载应用
提交文章
关于我们
🔥
热搜
🔥
1
1
2
1'"
3
1'
4
@妖精视觉
5
@亘古
6
@artag
7
抖音
8
@佛山综合
9
@两性
10
张靓颖
分类
社会
娱乐
国际
人权
科技
经济
其它
宾曰语云被法学教授投诉:严重侵权,“违法犯罪”!
二湘:朱令去世一周年,清华学子控诉清华在朱令案中的冷血和无耻
“上海王”柯庆施之死的真相
毕业论文辅导| 你又不是伞,硕士论文|毕业论文|博士论文|课题论文不行就被硬撑了,靠谱的辅导机构才是晴雨伞!
缺人:60r/次,立结~
生成图片,分享到微信朋友圈
查看原文
其他
《人工智能法(示范法)1.0》(专家建议稿)起草说明和全文
新治理
数据法盟
2024-04-28
全部课程+圈子+何谈系列
来源:新治理,仅供学习!
起草说明
一、起草背景
今年以来
,
以ChatGPT等产品为代表的生成式人工智能技术迅猛
发展
,
为人工智能
产业
注入一针强心剂,引发新一轮人工智能革命。
但同时,新技术新应用也会带来网络安全、数据安全、个人信息保护等方面的风险。人工智能治理需要抓住技术发展机遇,科学合理推进,以在未来新一轮科技革命和国际科技竞争中取得主动权。目前,
全球
各主要经济体均在进行实践探索,尝试构建人工智能治理规则体系、话语体系。
欧
盟《人工智能法案》已进入最终谈判阶段,该法案采用风险等级分类方式对人工智能进行监管,针对其中高风险类别规定了详细的全流程风险管理措施,并引入了监管沙盒等治理手段。美国虽尚未有成体系立法,但于2022年10月发布了《人工智能权利法案蓝图》,提出了安全有效的系统、算法歧视保护、数据隐私、通知和解释、人工替代方案与后备等五项人工智能治理原则。在这一文件的基础上,美国联邦政府各部门、各州正在推进政策制定或立法工作。
中国在
2023年
4月份
就
《生成式人工智能服务管理办法(征求意见稿)》
公开征求意见
,
并于
7月
正式发布
《生成式人工智能服务管理暂行办法》
,
率先
就
生成式人工智能监管这一议题
给出中国方案。此
外,人工智能法也已被列入国务院2023年立法工作计划。未来,中国如何通过立法在拥抱技术发展的同时有效规制风险,贡献出具有
中国特色的
人工智能
治理路径,
将受到国内外各界的密切关注
。
2023年
上半年以来
,在持续、长期追踪研究人工智能发展、监管的基础上,
中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》课题组
主持人、
中国社会科学院法学研究所网络与信息法研究室副主任
周辉
组织多方专家团队
,
经多次调研、讨论、修改,
起草
形成
《人工智能法(示范法)》(以下简称《示范法》)。《示范法》
立足时代前沿,把握人工智能发展规律和全球治理趋势,在为国家关立法提供参考的同时,也期待通过1.0、2.0、及至N.0的迭代讨论,不断适应人工智能发展安全态势,更好推动凝聚依法发展和治理人工智能的共识。
二、起草思路与主要结构
《示范法》分为六章,包括人工智能基本原则,促进发展举措、风险管理制度、主体责任分配、治理机制设计、法律责任
。
《示范法》坚持中国式治理思路,既
鼓励技术
发展,又坚
守
安全底线
,
是
具有
综合性、统辖性的立法
设计
。
第一章
“
总则
”
,阐明人工智能发展的基本原则,包括治理原则、人类自主原则、安全原则、透明可解释、公平原则等。在总则确立
的
原则基础上,下述
各章
将
围绕
总则
展开,并与
相关条文
呼应。
第二章
“
人工智能发展
”
,抓住
促进发展这一
“牛鼻子”,从基础设施、人才培养、技术创新、体制机制支持等维度
提出相应制度规范
,结合产业发展
实际
,采取有力措施鼓励人工智能创新。本章还强调
以
国家机关的先行先试促进人工智能的
推广
应用。
第三章
“
人工智能管理制度
”,
沿用近年来实践证明较为可行的风险分类分级管理方式,对人工智能技术研发和提供活动作出规定。
起草组认为,
鉴于
人工智能
技术迭代迅速、未来发展潜力较大
,应在
监管中适度予以放宽,不应规定过重义务、设定过多限制。
因此
,
起草组采用
负面清单管理制度
对人工智能进行风险管理:
负面清单内的研发、提供活动采取许可机制,实行事前监管;负面清单外的研发、提供活动则采取备案机制,
实行
事后监管
。
这一设计旨在
减轻人工智能研发、提供等活动的审查
、
许可等环节
成本
,
既有效防范关键风险,又容许创新发展
。
第四章
“
人工智能研发者、提供者义务
”
,
明确人工智能研发者、提供者应承担相应合规义务,如保障
公平性
和
可解释性、
进行
科技伦理审查
和
安全审查
等
,并且应将安全义务贯穿于人工智能活动整个生命周期,将人工智能治理的基本原则转化为企业可落地、监管可监督的义务类型。同时
,
基于人工智能产业链
中主体的复杂性
,
本章第二、第三节
对人工智能研发者、提供者
进行了区分,依据其不同活动特点分配主体义务。
最后,结合
本法前述条款
设定的负面清单管理制度,
本章针对
负面清单内的人工智能研发、提供
活动
进一步规定了相应的义务类型,保障义务与风险一致,坚守安全底线。
第五章
“
综合治理机制
”。
本章衔接总则规定,明确
国家人工智能主管机关
职责,如
统筹人工智能发展和管理,制定人工智能监管规则、指引,组织制定人工智能伦理、安全、管理等方面标准
,
组织人工智能技术监测、评估、审计工作等。
此外,
本章还
提出
创新监管、协同监管等机制
,
提高监管效率和治理效能,加强多元主体沟通协作
。
第六章
“
法律责任
”
,根据人工智能的风险活动,设计相应的法律责任。同时,
本章兼顾
发展导向,
明确尽职免责等制度,
以为人工智能创新活动提供宽松政策环境。
三、示范法创新点
示范法起草
团队
成员长期研究人工智能发展与治理,根据人工智能的最新动态着手起草工作,起草过程历经数月,充分结合产业发展动态以及国内外人工智能发展最新进展。总体来看,起草说明具有如下创新点:
(
一
)明确人工智能主管机关
在
示范法设计阶段
,就
人工智能治理机制,起草组提出两种思路:
一是设置主管机关统筹人工智能发展与管理,二是根据此前各个部门职责,
分行业、分领域实施治理
。最终,起草组认为应以更高维度来对待人工智能治理问题
,
避免产生类似互联网平台治理等问题上“九龙治水”的困境,故创设性提出
设置国家人工智能主管机关
和地方人工智能主管机关,统筹负责全国范围内人工智能发展与管理工作
。
(
二
)
划明
安全底线
随着商用化序幕拉开,人工智能带来的“副作用”——
虚假新闻、
电信网络
诈骗、个人信息泄露等逐渐显现。
安全是发展的基础,坚守人工智能安全底线有利于构建良好的行业氛围、增进社会公众对人工智能的认识与信任,也能更好在人工智能研发应用过程中保护个人权利、公共利益和国家安全。
聚焦
人工智能产业链治理难题
。
人工智能产业链
包括
训练数据处理、数据标注、模型开发、算力基础建设
和
落地服务场景
等多个环节
,包含了大量不同类型的行为主体,
具有
高度协作的
特点
。
人工智能研发、提供和使用行为所造成的风险不仅影响行为者自身,还会沿产业链向其他合作方传导,造成风险扩散。尤其是,
人工智能基础模型在应用体系中扮演重要角色,一旦出现相关风险,可能沿服务提供链条影响下游所有各类垂直细分场景的服务提供和使用。因此,起草团队抓住产业链关键环节,明确规定了基础模型研发者应遵循的义务,要求其制定使用规则、公平公正提供基础模型、
协助其他研发者、提供者履行相关义务
、
对严重违反示范法规定的其他主体采取措施等。同时,示范法还要求研发者和提供者之间应当密切配合,避免互相推诿责任的情形。
基于人工智能带来的风险在当前法律体系中增设义务
。
目前国内
在
个人信息保护、数据安全、网络安全、互联网信息服务、知识产权、竞争法等
方面已有清晰、成熟的法律制度体系,
示范法
则聚焦
人工智能
应用过程可能造成的潜在
风险
,
保障人工智能产品与服务的公开、透明、公平与可解释,并依法进行科技伦理审查
。
鉴于人工智能模型算法的运行机制并不完全明晰,会产生“开悟”“涌现”现象,可能导致违背预期的结果。起草团队还要求相关主体在履行一般安全义务的同时,需保障人工智能的运行结果符合预期,保证其服务的稳定,确保人类对人工智能的监督和控制,促进技术向善。此外,
示范法采取负面清单管理机制,明确将符合一定条件的人工智能研发、提供活动纳入清单,对清单内活动进行事前监管,并规定了相应程序,
赋予
实施负面清单内行为的主体以特别义务。
(
三
)
促进
发展
有实招
示范法坚持发展方向,采取有效措施鼓励生成式人工智能创新发展,对人工智能服务实行包容审慎态度。相较于
侧重于
惩罚性、管制类的立法,示范法更偏向于促进发展
,
在制度设计上留出更多容错空间
。
在第二章人工智能发展中,围绕目前人工智能发展的关键环节:算力技术设施,算法和基础模型创新、数据要素供给以及商业应用创新,进行了制度设计。
示范法采用前文所述负面清单监管思路,也出于审慎监管、包容发展的考量。在筹备阶段,起草团队考虑借鉴欧盟风险分级管理思路设计我国监管机制,但欧盟模式对企业合规压力仍然较大,宜更进一步聚焦重点。因此,示范法最终采取负面清单管理机制,在明确对清单内活动采取事前监管机制之外,允许负面清单外活动保留更大自主性,采取事前备案、事后执法方式,减轻企业负担。这一制度设计同样要求及时制定和更新负面清单,示范法对此进行了主管机关职责、清单更新期限等要求,以督促相关部门积极履职。
此外,考虑到创新发展过程中应有必要的容错机制,示范法
对
行为主体责任承担
也设计了相应的豁免条款
。
例如:
“人工智能研发者、提供者承诺限期整改合规,且能够有效避免人工智能研发、提供或使用活动造成危害的,可以不暂停相关活动。国家人工智能主管机关认为可能造成危害的,可以责令暂停相关活动。”在相应条款设计上最大限度上给予人工智能研发企业充分的发展空间和试错机会。
示范法还授权国家人工智能主管机关
制定依法不予行政处罚清单
,
对符合标准的轻微违法行为采取会商、约谈等手段督促整改,避免给技术创新造成过度影响。
(
四
)
科学设计主体架构
示范法结合人工智能发展状况、技术特点设计了不同主体责任。主体责任分配是法律设计的核心关键环节,
人
工智能行业生态正在快速发展形成中,规模庞大,主体呈现多样化,产业链迅速扩大。主体的界分已不再是传统互联网平台治理时期的以平台为主特点,需要考虑当前的技术特点,并应放眼长远,看到未来通用人工智能的方向。
经反复深入研究,
起草团队跳出具体应用场景,根据人工智能技术链条将
主体定为“研发者-提供者-使用者”三层结构,
依据不同的研发、提供和使用行为规定相应责任义务。即使在不同场景下,同一主体身份可能存在交叉重合,也无需另行制定规范,仅需基于其实际开展的活动匹配相应义务。这一结构设计避免了过细的主体责任分配损害应用层面商业模式发展,直接穿透底层技术逻辑、服务提供路径,并同时保证了风险防范、安全保障义务能够得到顺利履行。
四、未来展望
人工智能法将是一部面向前沿技术、面向数字经济、面向未来的重要立法,作为1.0版本的示范法提供了阶段性的结论和制度建议,但其理念、原则和具体制度设计不仅将随着法律和信息技术等领域的理论研究而更新,也会随着实践发展而不断迭代。起草团队期待就示范法及本法未尽之处与各界同仁深入交流探讨,以期得出更成熟、更全面、更有效率的治理方案。
点击图片,立即购买GDPR高级班62讲
每天两块钱,实时获取全球数据合规风险预警
👇
继续滑动看下一个
轻触阅读原文
数据法盟
向上滑动看下一个
您可能也对以下帖子感兴趣
{{{title}}}
文章有问题?点此查看未经处理的缓存