通版阅读请点击:
展开通版
收缩通版
当前版:097版
欧美人工智能监管模式及政策启示
  (一)传统人工智能与生产式人工智能
  欧盟委员会的《通信报告》将人工智能定义为:“人工智能(AI)是指通过分析环境并采取具有一定程度的自主性的行动来实现特定目标来展示智能行为的系统”[3]。传统人工智能主要依赖编程指令来执行特定的任务。例如,一个图像识别系统可能被训练成只识别特定的图像类型,如猫或狗。一旦这个系统遇到它从未见过的图像,它就无法做出正确的判断。这是因为传统AI的学习方式和能力有限,它们通常只能在其训练数据的范围之内进行工作,无法适应和处理新的或复杂的数据类型。
  然而,生成式AI则展现出了完全不同的特性。国家网信办《生成式人工智能服务管理暂行办法》将生成式人工智能技术定义为具有文本、图片、音频、视频等内容生成能力的模型及相关技术[4]。它并不依赖于预先定义的规则或模式,而是通过自我学习和适应来改进其性能。即使面对从未见过的数据类型,生成式AI也可以通过分析大量的类似数据来学习如何处理这种数据。这种自我学习和适应的能力使得生成式AI在许多复杂的任务中表现出色。
  随着人工智能的跨越式发展,基于人工智能的产品和服务的市场也在快速膨胀,人工智能赋能其他产业具有庞大的未来市场。据市场情报公司The InternationalData Corporation估计,全球人工智能市场将在2022-2026年期间达到18.6%的复合年增长率(CAGR),到2026年达到9000亿美元的峰值[5]。
  (二)人工智能产品或服务潜在的风险
  除了人工智能的潜力之外,它也正在成为具有威胁的技术应用的一个突出例子,尤以法律风险及伦理风险为甚。法律风险主要体现在“数据来源合法性问题、生成不良虚假或违法信息问题、数据泄露的法律风险等”[6];伦理风险主要来源于少数群体歧视问题、公民自由意志的不良诱导问题、无序监控与无端揣测问题等。
  (三)欧美等国现行人工智能监管模式
  欧盟《人工智能法案》秉持了欧洲一贯的法律的详尽性追求及对人权伦理的关切,该法案经国内法学领域相关学者翻译后长达14万字,《法案》对生产生活中的方方面面都进行了预演与讨论,力求构建出一个具体的、可持续的、可执行的人工智能监管模式。自人工智能兴起以来,欧洲学者对于人工智能伦理的争论不绝于耳,《法案》也能体现出欧洲学者的伦理追求,主要集中在如何确保人工智能技术的研发和应用过程中,能够充分尊重和保护人权、隐私,同时避免产生不公平、歧视等伦理问题。
  美国的监管风格强调“弱”监管和“软”治理,旨在增强美国在人工智能领域的科技和经济领导地位,为人工智能技术的发展扫除不必要的障碍。这种策略允许更多的创新和灵活性,同时也为AI发展提供了更大的空间。美国的监管法案更加注重行业自律和自我监督。为此,美国政府鼓励企业制定自己的AI伦理准则并通过内部审核和自我监督的方式来减少人工智能的伦理风险,同时美国还注重与学术机构和非营利组织的合作,期望这些组织机构能够推动人工智能产业的系统性、透明性监管。
  我国法律学者关于人工智能法律的观点可将其大致区分为“人工智能法律”(AI法律)和“法律人工智能”(法律AI)两大类型,厘清它们的不同立场、方向和路径,进而探讨“第三道路”的可行性,对推进当下人工智能与法律的深入研究无疑具有重要意义[7]。
  目前世界上一部分主流国家的人工智能监管法案(如表1):
  欧美人工智能监管模式的内容
  人工智能是恐惧的来源,特别是对人权的尊重需要一个非常精细的法律和道德环境,以避免减缓人工智能的发展[8],细致恰当的监管往往可以促进技术的发展。欧盟逐