人工智能规范化伦理回归路径选择
人与仿生机器人互动
人与仿生机器人互动
人与仿生机器人互动
能模拟认知限制在人类伦理可以接受的范围之内、协调人工智能时代中多种复杂社会因素,又推动实现发挥人工智能技术在人类社会发展中的积极作用、促进包括人工智能在内的先进科技引领合作共赢的全球化发展。
伦理回归在规范化路径中的实现
规则存在的价值不是作为解决矛盾的机械化形式,也难以做到在一切社会问题中药到病除。恩格斯曾经指出,即便是最能代表规范性的法律,其对于社会经济生活条件的表现,也会依据情况的不同而表现得有时好、有时坏。[12]
(一)既有规范化形式指引下的适用性形态完善
整合并有效适用既有规则是人工智能规范化的首选,也是规范化自律的基本表现。人类对于人工智能的思考始于计算机技术产生初期,随着计算机技术的发展与信息时代的到来,人工智能技术并非从零到正无穷的突变,而是一个无限接近人类关于制造“像人类一样会思考的机器”的构想的发展过程。
人工智能技术在其发展过程中所不断引发的社会问题,也是随着技术水平的逐步提升而逐步产生、变化、发展的,各类规范的自我完善也一直伴随在这个过程之中。人工智能引发的社会问题中的许多,例如,人工智能技术产品的设计缺陷、生产质量缺陷、保管不当、使用与操作不当等小叙事范围问题,人工智能是否会脱离人类掌控、是否会造成不可控危害、是否会最终取代人类在人类社会的主体地位等大叙事范围问题,究其本质而言,并非全部都是现行规范体系中难以化解的新矛盾。其中,有相当数量的问题只是以人工智能为表象出现的传统社会问题,甚至不牵涉任何新价值表征。只是因为其以人工智能的表象出现,引发了难以掌握人工智能有效信息的不确定人群对于不确定危害的传导性恐慌,造成了人工智能在现今时代已经发展到了难以实现有效规范的假象。
因此,面对各类与人工智能相关的问题,首先,应该进行实质性的分析,不能将所有人工智能技术所引发的矛盾都看作是人工智能脱离人类掌控所引发的新兴社会问题、是现行规则体系无法破解的终极困境;其次,对于可以归入现有道德、政策、法律等规则体系予以规范化的具体矛盾,应结合现有规则体系的具体要求与利益主体的具体诉求予以解决;再次,对于通过现有规则体系难以获得诉求有效实现的问题,需要甄别是现有规则体系存在的问题还是主体诉求存在的问题,再进行进一步分析与解决;最后,对于确实不在现有规则范围之内的新问题,需要进一步探索规则体系的技术性完善。
当既有规则确实已经难以实现对于人工智能及其相关的具体问题的有效解决时,根据现实发展需求对既有规则进行适用性解释是人工智能规范化的进一步路径选择,而适用性解释应该以符合人类伦理认知为标准。从具有标志性意义的某一类或者某几类社会关系或者行为中抽象概括而来的基本人类伦理,可以在实践中起到传递某种价值准则并宏观指导具体行为规范的作用,以基本人类伦理为指引的适用性解释可以用于弥补规则滞后或者不周延等不足。
(二)实现伦理化价值指引下的规范化实质完善
价值观是决定规则和规则形成过程的主观判定标准,对规则的形成具有重要影响。当人类以某种具有立场的价值观来判定如何规范人工智能之时,人类关于主观的客观描述会不断外化为客观规则。其中,具有共识性的规则将会作为价值的载体,成为新的普遍性规则,适用于新兴
人与仿生机器人互动
人与仿生机器人互动
能模拟认知限制在人类伦理可以接受的范围之内、协调人工智能时代中多种复杂社会因素,又推动实现发挥人工智能技术在人类社会发展中的积极作用、促进包括人工智能在内的先进科技引领合作共赢的全球化发展。
伦理回归在规范化路径中的实现
规则存在的价值不是作为解决矛盾的机械化形式,也难以做到在一切社会问题中药到病除。恩格斯曾经指出,即便是最能代表规范性的法律,其对于社会经济生活条件的表现,也会依据情况的不同而表现得有时好、有时坏。[12]
(一)既有规范化形式指引下的适用性形态完善
整合并有效适用既有规则是人工智能规范化的首选,也是规范化自律的基本表现。人类对于人工智能的思考始于计算机技术产生初期,随着计算机技术的发展与信息时代的到来,人工智能技术并非从零到正无穷的突变,而是一个无限接近人类关于制造“像人类一样会思考的机器”的构想的发展过程。
人工智能技术在其发展过程中所不断引发的社会问题,也是随着技术水平的逐步提升而逐步产生、变化、发展的,各类规范的自我完善也一直伴随在这个过程之中。人工智能引发的社会问题中的许多,例如,人工智能技术产品的设计缺陷、生产质量缺陷、保管不当、使用与操作不当等小叙事范围问题,人工智能是否会脱离人类掌控、是否会造成不可控危害、是否会最终取代人类在人类社会的主体地位等大叙事范围问题,究其本质而言,并非全部都是现行规范体系中难以化解的新矛盾。其中,有相当数量的问题只是以人工智能为表象出现的传统社会问题,甚至不牵涉任何新价值表征。只是因为其以人工智能的表象出现,引发了难以掌握人工智能有效信息的不确定人群对于不确定危害的传导性恐慌,造成了人工智能在现今时代已经发展到了难以实现有效规范的假象。
因此,面对各类与人工智能相关的问题,首先,应该进行实质性的分析,不能将所有人工智能技术所引发的矛盾都看作是人工智能脱离人类掌控所引发的新兴社会问题、是现行规则体系无法破解的终极困境;其次,对于可以归入现有道德、政策、法律等规则体系予以规范化的具体矛盾,应结合现有规则体系的具体要求与利益主体的具体诉求予以解决;再次,对于通过现有规则体系难以获得诉求有效实现的问题,需要甄别是现有规则体系存在的问题还是主体诉求存在的问题,再进行进一步分析与解决;最后,对于确实不在现有规则范围之内的新问题,需要进一步探索规则体系的技术性完善。
当既有规则确实已经难以实现对于人工智能及其相关的具体问题的有效解决时,根据现实发展需求对既有规则进行适用性解释是人工智能规范化的进一步路径选择,而适用性解释应该以符合人类伦理认知为标准。从具有标志性意义的某一类或者某几类社会关系或者行为中抽象概括而来的基本人类伦理,可以在实践中起到传递某种价值准则并宏观指导具体行为规范的作用,以基本人类伦理为指引的适用性解释可以用于弥补规则滞后或者不周延等不足。
(二)实现伦理化价值指引下的规范化实质完善
价值观是决定规则和规则形成过程的主观判定标准,对规则的形成具有重要影响。当人类以某种具有立场的价值观来判定如何规范人工智能之时,人类关于主观的客观描述会不断外化为客观规则。其中,具有共识性的规则将会作为价值的载体,成为新的普遍性规则,适用于新兴