通版阅读请点击:
展开通版
收缩通版
当前版:100版
欧美人工智能监管模式及政策启示
有关自然人知道他们正在与一个人工智能系统互动。应确保从一个合理知情、善于观察和谨慎的自然人的角度来看,考虑到使用的情况和场景,使得自然人能够意识到“自己正与人工智能交互”。
  高风险领域的人工智能系统应至少确保其操作具有足够的透明度,使部署者能够解释系统的输出并加以适当使用。同时应当提交使用说明,包括提供者及其授权代表的身份和联系方式;公布高风险人工智能系统的特点、能力和性能限制;其预期目的;所需的计算和硬件资源,高风险人工智能系统的预期寿命,以及任何必要的维护和保养措施,以确保该人工智能系统的正常运行;按规定适当地收集、储存和解释人工智能系统的工作日志。
  3、各主体的监管措施
  为了落实约束力规则的方方面面,真正实现对人工智能系统的监管,欧盟的监管模式主体分为各国政府或行政组织,人工智能系统价值链各参与者以及第三方监督。
  一是国家政府或行政组织的监督。各国政府应当设立一个专业的机构用以人工智能监管,包括审核人工智能系统的市场准入审查、长期监督、高风险领域人工智能使用场景许可的发放、公开数据的集中存储管理等等;建设“监管沙盒”,用于人工智能在开发和上市前阶段建立受控实验和测试环境来促进人工智能创新,以确保创新的人工智能系统符合本条例。“监管沙盒”模型起源于英国金融监督管理局在2015年提出的新监管理念,近年来英法等国已相继展开数据监管沙盒空间的尝试。“监管沙盒”可以真实地模拟人工智能的应用环境,进而为人工智能系统提供进行创新迭代实验及监督实验的安全的测试空间。发放“CE”标志。此行动类似于罗斯福行政时期推行《全国工业复兴法》时期的“蓝鹰标志”,符合《法案》要求的高风险人工智能系统应当悬挂“CE”标志,从而便于被人工智能系统受众辨别。标注“CE”也更有利于人工智能系统在市场中的流通,不得对带有“CE”标志的人工智能系统设置不合理的市场准入障碍。
  二是人工智能系统价值链各参与者(即开发者、分销者、部署者等)。任何一个人工智能系统都需要一个自然人作为法人为其负责。人工智能系统价值链参与者应当在系统开发同时设计出风险管理系统,其应当是个长期的可重复的系统。风险管理系统需识别风险或不利影响,并针对已知和可预见的不利情况预设应急措施。保存记录和提供技术文件,尤其包含评估人工智能系统是否符合相关要求和促进市场后监测所需的信息。掌握关于高风险人工智能系统如何开发及其在整个生命周期中如何运行的信息,对于实现这些系统的可追溯性、核实是否符合本条例的要求以及监测其运行情况和市场后监测至关重要。
  三是第三方监督。此处的第三方机构是较于行政机关与人工智能企业外的第三方监测机构,鉴于高风险人工智能系统的风险程度,需要为其制定一套适当的合格性评估程序,即所谓的第三方合格性评估。因此,作为一般规则,此类系统的合格性评估应由提供者自行负责进行。
  (二)美国2018人工智能政策法案
  2018年美国颁布了人工智能政策法案[13],旨在通过建立一个专门的人工智能中心来协调和推动联邦政府在人工智能领域的活动,并提供相关培训、资源和技术援助。
  1、核心内容
  一是新兴技术政策实验室。法案SEC.3授权在总务管理局(GSA)内设立新兴技术政策实验室来建议和促进联邦政府的努力,以确保政府使用新兴技术,包括人工智能,符合公众的最大利益以及提高联邦机构规则制定和新兴技术使用的凝聚力和能力。该部分第一条职责规定新兴技术政策实验室定期召集来自行政机构、工业界、联邦实验室、非营利组织、高等教育机构和其他实体的个人,讨论新兴技术的最新发展,包括传播有关联邦机构的项目、试点和其他倡议的信息,以及这些技术的最新