在日前举行的 " 全球治理话语竞赛下人工智能立法的中国方案 " 研讨会上,中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》起草组发布了《人工智能法示范法 1.0(专家建议稿)》(以下简称为《示范法》)。
据了解,《示范法》中包括总则、工智能支持与促进、人工智能管理制度、人工智能研发者和提供者义务、人工智能综合治理机制、法律责任和附则七大章节,是一部综合性、统辖性的立法示范,坚持发展与安全并行的治理思路,以 " 研发者 - 提供者 - 使用者 " 三类主体进行制度设计,跳出具体应用场景,创设性地提出了设置国家人工智能主管机关统筹负责全国范围内人工智能发展与管理工作,以及负面清单管理等治理制度等,并对人工智能产业链条各主体责任义务分配等核心问题进行了回应。
据悉,负面清单管理制度是指对负面清单内的研发、提供活动实施许可管理、实行事前监管,对负面清单外的研发、提供活动实施备案管理,实行事后监管,旨在大幅减轻人工智能研发、提供等活动的审查成本,减轻企业合规负担。
在人工智能主体责任和义务分配上,《示范法》将人工智能研发者、提供者义务,分为一般规定义务、研发者义务、提供者义务,据了解,在强调发展的同时,人工智能涉及的相应主体也应承担相应责任,比如公平性义务、可解释性义务、科技伦理审查、安全审查,并且应将安全义务贯穿于人工智能活动整个生命周期,将人工智能治理的基本原则转化为企业可落地、监管可监督的义务类型。
同时基于人工智能产业链的特殊情况,《示范法》对人工智能研发者、提供者分配了在其活动范围内的义务类型。并且结合所设定的负面清单管理制度,《示范法》还进一步规定了负面清单内的人工智能研发者、提供者,以及基础模型研发者相应的义务类型,保障义务与风险一致,坚守安全底线。
据起草组负责人相关成员中国社会科学院法学研究所网络与信息法研究室副主任(主持工作)周辉透露,该《示范法》为 1.0 版本,在充分考量目前人工智能发展现状、技术特点等基础上撰写,但也留出了许多空间,后续将根据人工智能发展情况,持续迭代更新版本。
【本文图片来自网络】