通版阅读请点击:
展开通版
收缩通版
当前版:099版
欧美人工智能监管模式及政策启示
  2、约束力规则
  约束力规则系《法案》构建人工智能监管的核心,为了对人工智能系统采用一套成比例和有效的具有约束力的规则,应遵循明确界定的基于风险的方法。《法案》根据人工智能系统可能产生的风险的强度和范围,采用基于风险评估等级的方法,明确界定出三级具体的监管方法:(1)有必要明令禁止某些不可接受的人工智能实践活动。(2)规定高风险领域人工智能系统的要求和相关AI运营商的必须遵守的义务。(3)规定人工智能系统都应具有的透明度义务。
  欧盟期望通过分级别的约束力规则促成值得人类信赖的、符合伦理道德的以人为本的人工智能,为此欧盟高级别专家组制定了七项人工智能伦理原则,包括:人类主体和监督;技术稳健性和安全性;隐私和数据治理;透明度;多样性、非歧视和公平;社会和环境福祉以及问责制。
  一是明令禁止的人工智能活动。欧盟首先在法案中严令禁止了人工智能在多个领域的不当应用,具体包括:利用人工智能进行操纵、剥削及社会控制,这些活动严重侵犯人的尊严、自由、民主与法治等价值观;诱导人们做出违背自我意志的行为或决定,损害人们的自主决策和自由选择权;基于个人生物识别数据进行政治观点、宗教或哲学信仰、种族、性取向等方面的推断,严重侵害个人隐私权;为自然人提供社会评分,可能导致歧视性结果,侵犯人的尊严和不受歧视的权力;在公共场合对自然人进行“实时”生物鉴别,破坏个人隐私权及自由;在没有客观事实证明的情况下,使用人工智能对自然人进行犯罪风险评估,违反“无罪推定”原则;在教育、工作领域利用人工智能进行情绪推断,可能导致人们受到有害或不利的待遇。此外,还禁止了其他法律法规所禁止的实践行为。
  在详尽无遗的狭义列举外,只有在相关部门审核授权后,才可在相关领域进行实践活动。例如实时生物监控,只能用于特定被事实验证的目标对象,并且对监控行为进行严格的规定。
  二是高风险领域人工智能系统活动。高风险人工智能系统只有在符合特定的强制性要求的情况下才能投入市场或使用。高风险人工智能应用主要集中在可能对人的健康和安全产生不利影响及对《宪章》所保护的基本权利产生不利影响的领域。
  具体的高风险人工智能应用场景,包括生物识别技术,特别是远程生物识别系统,以及基于敏感或受保护属性或特征进行生物鉴别分类和情感识别的人工智能系统。此外,还有服务于供水、供电、供暖管理和运行的安全组件,以及用于道路交通的人工智能系统,这些都被视为重要数字基础设施的关键组成部分。教育和职业培训、就业及工人管理、自然人获得和享受基本公共服务和福利等领域也广泛涉及高风险人工智能应用。同时,执法部门及移民、庇护和边境控制管理部门活动领域,以及司法和民主进程领域也是高风险人工智能应用的重要方面。
  三是透明度义务。为了确保可追溯性与透明度,人工智能系统的开发者、部署者应当履行透明度义务,在人工智能系统投入使用前向行政主管机构提交此系统的评估文件、使用说明,且有义务在欧盟数据库中登记该系统,以便后续由人工智能委员会进行指导与监管。
  非高风险领域的人工智能系统的提供者应确保将与自然人直接互动的人工智能系统的设计和开发方式应使