一、人工智能是模拟、扩展人的智能的技术
我国刑法并未定义人工智能,学界对该术语也没有统一认识。现有的定义和讨论大多建立在以人为本或人类中心主义的价值观基础上,体现人工智能的工具价值和“有益智能”理念。
在规范层面,人工智能的明确定义分散于政府规章和规范性文件中。比如,中国电子技术标准化研究院编写的《人工智能标准化白皮书(2018版)》将人工智能定义为:“利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。”2022年广东省深圳市人大常委会《深圳经济特区人工智能产业促进条例》第2条将人工智能定义为:“利用计算机或者其控制的设备,通过感知环境、获取知识、推导演绎等方法,对人类智能的模拟、延伸或者扩展。”
学界也从不同角度诠释了人工智能的概念。有学者通过分别界定“人工”与“智能”来定义“人工智能”。人工表示由人类创制的机器抑或人类研发的程序系统,智能表示模拟人类大脑能动性的智慧与思维,也即“智慧机器”。有观点则进一步认为,仅智能这一部分的认定就至少需要沟通交流能力、内部知识、外部知识、目标驱动行为和创造能力这5个基本构成要素。此种定义模式的问题在于从法律层面分别界定人工和智能本身就存在困难。就人工一词而言,设想超级智能机器人A通过深入学习功能复制出另一个智能机器人B,那么B是否属于人工智能另外,对智能的界定更难把握。当下主流观点认为,人类是唯一拥有智慧的生物。但是,“目标驱动”“创造力”这些用来界定智能的要素似乎影射人工智能具有自由意志,而刑法并未认可人工智能的责任主体地位,人工智能是否具有“自由意志”在学界也未达成共识。
总体来看,无论规范性文件还是学界对人工智能的界定,都凸显人工智能对于人类的工具价值,其存在是为了便利人类生活。原因可能在于,现阶段的人工智能大多属于弱人工智能,至多是强人工智能的初级阶段,其研发、设计和使用都受人类控制或监督。鉴于上述分析,笔者认为,将人工智能定义为模仿人去完成某项任务的技术或模拟、扩展人的智能的技术,既符合以人为本的价值理念,又能避免分别解释人工与智能潜在的困境。
二、涉人工智能犯罪的刑事归责机制
随着人工智能技术的深入发展,学界对未来刑法是否应该赋予人工智能法律人格存在争论。需要指出的是,对弱人工智能,否定其法律主体资格鲜有争议。至于超级人工智能,对其法律主体地位的讨论至多是一种理论上的假设,实现超级人工智能还有很长的路要走。因此,目前关于人工智能主体地位的争议主要是对于强人工智能而言的。
(一)人工智能法律主体地位的必要性及与刑法的兼容性之争
(二)故意与过失责任
2.基于注意(预见)义务和结果回避义务产生的过失责任。人工智能系统的研发者或使用者违反注意义务,致使重大且不合理的风险或危害结果发生的,可能会承担过失刑事责任。需要指出的是,如果行为人不存在任何过错,危害后果是由人工智能基于深入学习功能自主造成的,则适用意外事件条款,阻却刑事责任。在这一点上,有观点认为:“当智能机器人在程序设计和编制范围外实施严重危害社会的行为时,智能机器人具有辨认能力和控制能力,因而具有刑事责任能力,应当独立承担刑事责任。”有观点则通过“人工智能算法自主性的相对性与绝对客体性”以及援引“原因自由行为论”来反驳人工智能的独立责任说。实际上,独立责任观点的逻辑前提在于设想人工智能发展至类人的辨认和控制能力,从而被承认法律主体地位。然而,如前文所述,如果人工智能算法真正发展到脱离人类控制的程度,那将不是包括刑法在内的人类规范体系能够应对的情形。
除了基于注意义务产生的过失责任,刑法总则并未直接规定监督过失责任。然而,刑法分则危害公共安全罪和渎职罪章节实际上包含了监督过失理论。尽管如此,人工智能系统的研发者或使用者不属于刑法分则规定的监督过失罪的法定主体。据此,现行刑法不能追究人工智能研发者、使用者的监督过失责任。考虑到人工智能的风险性,应对人工智能系统的研发者或使用者设定一定的监督义务,研发者和使用者违反监督义务的,将构成监督过失罪。
(三)共犯与间接正犯责任
刑法规定只有共同故意犯罪才成立共犯,共同过失不以共同犯罪论处,应负刑事责任的,按其各自所犯罪行分别处罚。然而,司法解释和刑法理论并未完全否认共同过失犯罪理论。2000年最高人民法院《关于审理交通肇事刑事案件具体应用法律若干问题的解释》第5条第2款规定:“交通肇事后,单位主管人员、机动车辆所有人、承包人或者乘车人指使肇事人逃逸,致使被害人因得不到救助而死亡的,以交通肇事罪的共犯论处。”在人工智能时代,如果研发者在研发人工智能体时因过失使得人工智能体存在缺陷,而使用者在使用过程中也因过失违反了人工智能体的操作规范的,人工智能体由此造成的危害结果可以由研发者和使用者共同承担过失责任。
三、涉人工智能犯罪的定罪处罚体系及其改革
当下,现有的刑法罪名能够应对大多数涉人工智能犯罪。然而,不可否认的是人工智能的发展冲击了传统刑法体系,传统刑法罪名不足以应对涉人工智能新型犯罪行为。因此,刑法有必要通过立法改革实现自我完善,从而有效应对人工智能带来的刑事风险。
(一)涉人工智能犯罪可适用的罪名体系
第二类犯罪是利用人工智能的“智能”技术实施的犯罪。在上述案件中,还存在胡某等人通过网络购买等方式获取大量账号密码形式的数据,随后利用软件进行批量账号密码匹配并出售获利的行为。他们违反国家有关规定,以其他方式非法获取公民个人信息,构成侵犯公民个人信息罪。以侵犯公民个人信息罪定罪处罚的争议点在于账号密码数据是否属于公民个人信息。账号密码数据本身的数字当然不具有个人信息的特性,然而获取了匹配的账号密码数据等同于掌控了账号关联的注册认证信息、好友资料、空间动态、关联财产账户信息等,而上述信息能够直接与特定自然人关联,反映特定自然人的活动情况、财产状况等。因此,违反国家规定,通过购买等方式获取他人账号密码的,属于侵犯公民个人信息的行为。
第三类是人工智能产品缺陷型犯罪,如无人驾驶汽车由于智能系统故障导致的重大责任事故即属于产品缺陷型责任。刑法第140条和第146条分别规定了生产、销售伪劣产品罪和生产、销售不符合安全标准的产品罪,可以用来追究涉人工智能产品缺陷责任。也就是说,如果损害结果是由人工智能系统固有的缺陷或营销过程中的不当指令造成的,可以用该类罪名追究研发者、制造者或销售者的责任。在自动驾驶领域,如果危害结果是由自动驾驶汽车使用人的不当或违法操作造成的,还可适用危险驾驶罪或妨害安全驾驶罪。此归责逻辑的问题在于,生产、销售伪劣或不符合安全标准产品的行为是故意犯罪。如果将自动驾驶汽车违反交通规则导致交通肇事的结果归责于汽车的研发者,就意味着使研发者“承担了原本属于过失犯罪的交通肇事罪转化而来的故意犯罪——生产伪劣产品罪的刑事责任”。为解决这一矛盾,未来刑法修正案有必要对现有的涉人工智能罪名体系进行修订,以符合合法性原则。
(二)涉人工智能罪名体系改革
虽然现有罪名体系能够应对大多数涉人工智能犯罪行为,但传统罪名体系在处理人工智能体犯罪行为时会产生冲突。有观点提出通过对现行刑法中传统的计算机罪名和新型网络罪名解释来扩展适用于人工智能系统,因为人工智能是计算机技术的分支领域。然而,该路径不能有效解决人工智能引发的新的法律问题,例如智能聊天机器人发表的刑法所禁止的言论的定性问题、人工智能假肢引发的故意伤害罪的认定问题等。原因在于刑法规制的是人的行为,而人工智能体在某种程度上代理了人的行为。但人工智能又并非刑法拟制的责任主体,因此,对涉人工智能行为归责时会力有不逮。
(三)涉人工智能刑罚体系不必重构
无论基于报应刑罚观,还是功利主义刑罚观,或两者兼有的合并论刑罚观,现有的刑罚体系完全可以应对涉人工智能犯罪行为人的行为。对于强(或超级)人工智能犯罪,有观点提出了删除数据、修改程序、永久销毁等专门用于惩处人工智能的刑罚种类。暂且不论这些刑罚种类是否符合以人为基础确立的刑罚观,这些措施本身与其说是刑罚,不如说是技术措施。如前所述,建立在规制人的行为基础上的刑法没有必要确立独立的人工智能法律主体地位,罪名体系的改革也是针对社会出现的新型犯罪作出的适时、局部的调整,并非对刑法体系的全面改革,由此,作为刑法学体系末端的刑罚也没有必要重构。
作者:王秀梅,北京师范大学法学院暨刑事法律科学研究院教授、博士生导师,国际刑法学协会副主席暨中国分会秘书长,G20反腐败追逃追赃研究中心主任,中国廉政法制研究会副会长;张雪,北京师范大学法学院暨刑事法律科学研究院博士后研究人员。
(本文共四部分,现摘发前三部分,注释及全文见《人民检察》2023年第19期)