01 全球AI监管趋势
全球范围内,AI的开发和使用正在加速。政策制定者正密集开展工作,以确保AI作为一个整体,促进其服务经济和社会目标的同时,降低其风险。从全球看,AI监管表现为以下六方面的趋势。
趋势一、以OECD的AI原则作为政策制定的基准
OECD和G20于2019年通过的AI原则,成为政府和组织建构以人为本的可信AI方法的全球基准。这些原则于2016年开始的有关AI使用应遵循的核心道德原则的公开讨论之后制定,原则涵盖了诸如确保AI的好处在社会广泛传播、AI不破坏诸如保护人权等社会保障措施,以及使用AI的组织是否已建立适当的治理和问责制度等方面。下表是OECD的AI原则及其对政府政策制定的建议。
例如,欧盟的AI法案要求与OECD的问责和AI的健全、安全使用原则一致,并在OECD原则基础上更进一步,指定了AI应用的“红线”,包括禁止使用AI进行基于社会行为或个人特征的社会评分的应用。尽管我国不是OECD国家,但OECD原则为包括我国在内的G20国家领导人于2019年6月背书的G20 AI原则提供了基础。
趋势二、采取基于风险的AI方法制定政策
各国正专注于将AI原则付诸实践,采用的方法从自愿指导到强制性规则不等,但都在寻求基于风险的AI方法。2023年4月,G7的数字化和技术部长表达了统一AI的观点,呼吁应基于AI活动带来的风险制定和调整相关政策和法规,在鼓励负责任的AI发展使用和降低AI风险之间找到平衡。这种方法使得政策制定者可以更快响应快速发展的AI创新。
在这一方法指导下,2023年10月30日,G7国家(加拿大、法国、德国、意大利、日本、英国、美国和欧盟)就AI国际指导原则和AI开发人员行为准则达成协议,这一举措对于推动政府建立全球协调一致的基于风险的框架,以促进AI系统负责任和安全开发和使用至关重要。比如欧盟和加拿大的AI法案和数据法案,都使用风险和影响评估将AI系统归入不同的合规义务类别。最广泛的合规要求适用于被归类为高风险的系统,而低风险AI系统则根据其风险水平满足较低要求。
趋势三、区别行业通用和特定两方面因素制定双重AI监管政策
AI技术在某些行业的使用可能带来独特风险,例如,由于安全风险高,需要额外的行业特定指导或规则来部署在公路上的自动驾驶汽车;在银行使用AI,监管机构需要制定特定规则,以最小化AI对消费者贷款构成的潜在风险(例如,有偏见的承保)或对银行的安全性造成的风险。
我国等全球各国正区别行业通用和特定因素制定双重AI监管政策:跨行业方法构建的基本框架,为无论在哪个行业开发或使用AI,都能提供基本的保护措施;行业特定方法则为解决具体行业风险,对AI使用制定了额外的指导方针。下表是各国通用和特定行业双重AI监管政策举例。
趋势四、制定和调整AI相关影响领域的政策
AI规则,同时会影响和推动数据所有权、数字身份、网络安全和数字内容流动等相关领域新政策的制定,或需对现有政策进行新的解释。2024年5月,欧洲理事会正式通过全球第一部《AI法案》,并在受AI影响领域采取了最全面的方法,在相应领域制定新的法规,比如,《通用数据保护条例》规定了解决AI在自动化决策中使用个人数据所带来的挑战的规则,《数据法案》规定了所有行业对于AI所需数据的公平获取和使用规则,《数字服务法案》包括有关AI用于在线内容访问和分发的规定,以及《网络弹性法案》则引入了新的保障措施,以保护消费者和企业免受日益复杂的AI驱动网络威胁的侵害。
趋势五、利用AI沙盒开展监管测试
沙盒允许在受监管的环境中进行技术创新测试,因此,AI沙盒可以帮助制定针对性AI法规,推动风险投资,促进竞争,并鼓励监管机构与参与公司进行更好沟通。自2014年英国金融行为监管局(UK FCA)建立监管沙盒后,已有约40个司法管辖区采用并建立了这一工具。
目前UK FCA正在测试金融科技领域的AI系统,而英国信息专员办公室(ICO)正在对AI进行数据隐私测试。在欧盟和新加坡,监管机构正在使用AI监管沙盒解决AI快速发展及其自身对AI技术缺乏经验的双重挑战。此外,西班牙、瑞典和德国也在建立AI沙盒,为欧盟的AI法案实施做准备。
趋势六、AI治理的全球合作势头日益增强
2023年全年,伴随着公众对生成式AI系统开发和发布的关注不断升温,建立全球AI共同治理和监管基础的共识也日益增强。包括中国在内的28个与会国共同达成的《布莱切利宣言》在首届全球AI安全峰会正式发表,这是全球第一份针对AI这一快速新兴技术的国际性声明,提出“迫切需要通过新的全球共同努力,理解和集体管理潜在风险,以确保AI以安全、负责任的方式开发和部署,造福全球社区”。这些倡议要求全球各国共同面对AI安全、伦理和治理等复杂挑战,通过协调国际响应和保障措施机制,促进AI治理的全球合作。另外,在OECD的AI治理工作组、欧洲委员会AI委员会、全球AI伙伴关系和联合国机构的各种倡议基础上,日本G7主席国发起了“广岛生成式AI进程”, 发布关于AI国际指导原则和AI开发人员的行为准则。
02 对AI政策制定的启示
1.全面认识AI的复杂性
应确保基于足够的专业知识制定AI政策,并确保受监管实体拥有足够的专业知识有效实施其政策。确定并获取此类专业知识需要一定时间,还涉及到相关指导、培训、流程、治理、监督,以及相应执行。政府需对全民AI素养进行长远规划,并对相应投入做好充分的准备,比如新加坡国会议员动议补贴40岁以上新加坡人重新进课堂学习AI。
2.明确AI法规制定的确定性
制定AI法规时,需要区别AI和AI系统,明确规则制定的意图是监管AI技术本身带来的风险(例如,自然语言处理或面部识别等特性)还是AI技术的使用方式(例如,AI在招聘流程或监控中的应用)带来的风险。对于企业来说,法规的确定性至关重要,还应将AI作为一个整体进行监管。明确知道哪些AI系统属于监管的范围,以及内部风险管理流程重点在哪里,有助于提高企业遵守AI规则并满足监管期望的能力。
3.理解全球法规互操作的重要性
全球AI治理合作,有赖于全球AI法规的互操作性:一方面,互操作性确保各国法规具备一致的可比较的有效规则基础,可减少监管套利的风险;另外一方面,互操作性可为全球运营的AI服务的消费者提供通用保护,避免受到AI伤害。除此之外,法规互操作性还可以大大降低AI公司技术研发、应用服务提供和运营的相应成本。
4.将第三方供应的AI纳入风险管理
由于许多公司依赖第三方供应的AI,政策制定者需要将第三方AI纳入风险管理和合规要求。如欧盟的《AI法案》包括跨组织的AI供应链规定,为AI系统的提供者、分销商、进口商和用户规定了相应义务;而美国国家标准与技术研究院(NIST)制定的《AI风险管理框架》为第三方AI用户创建指导手册,说明通过第三方采购AI服务时需考虑的风险和合规要求。
本文作者
漆晨曦
战略发展研究所
高级分析师
高级经济师,26年通信行业的数据分析、数据挖掘和数据科学及BI、营销一体化平台架构和业务规范的相关专业实践和研究经验,近年专注企业数字化运营转型和数据要素市场研究。