文章目录
- 前言
- 一、欧盟《人工智能法案》的落地
- 二、欧盟《人工智能法案》的适用范围
- 1、人工智能系统的定义
- 2、《人工智能法案》七个适用范围
前言
为促进人工智能技术发展并应对可能带来的挑战,各国开始探索有效的人工智能监管路,欧盟自 2018 年开始探索建立一套既能促进人工智能发展又能确保人工智能符合基于信任、安全、伦理等考量因素的监管框架。2018 年 4 月,欧盟委员会(European Commission)发布政策文件《欧洲的人工智能》(Artificial Intelligence for Europe),指出欧盟应采取协调一致的方法,最大化利用人工智能带来的机遇并解决可能带来的挑战。
2019 年 3 月,由欧盟委员会指派的高级别人工智能专家组发布了《可信人工智能伦理指南》(Ethics Guidelines for Trustworthy Artificial Intelligence),提出了人工智能系统达到可信标准的七项关键要求,包括人类能动性与监督、技术稳健性与安全性、隐私与数据治理、透明度、多样性、非歧视性与公平性、社会与环境福祉以及可问责性等。
2020 年 2 月,欧盟委员会发布《人工智能白皮书:追求卓越与信任的欧洲路径》(White Paper on Artificial Intelligence: an European Approach to Excellence and Trust)。关于未来欧盟人工智能监管框架的展望,该白皮书提出针对高风险人工智能应用的相关监管要求应包含以下要点,即训练数据、数据与记录留存、信息披露、稳健性与准确性、人为监督,以及针对特定人工智能应用的要求(例如远程生物识别)等。
</