中国社会科学院国际法研究所是中国国际法学的研究重镇。她的前身是中国社会科学院国际法研究中心、中国社会科学院法学研究所国际法研究室和最早时的中国社会科学院法学研究所国际法组。
小
中
大
摘要:人工智能在推动人类社会智能化变革的同时,其不确定性(自动性)所衍生的侵害人类法益的刑事风险是亟待认真对待的“真问题”,绝非凭空臆造、危言耸听的“伪问题”。对人工智能体被滥用于实施犯罪的刑事风险,应根据现有刑事归责原理,按照具体行为方式以及主观罪过形式,分别追究人工智能体背后的算法设计者、产品制造者与使用者(管理者)故意或过失犯罪的刑事责任。对人工智能体脱离人类控制侵害法益的刑事风险,赋予人工智能体以刑事责任主体地位的肯定论归责方案,存在持论依据及论证路径方面的诸多误区。以刑罚规制人工智能体刑事风险缺乏适宜性,应当借鉴“科技社会防卫论”,通过建构保安处分机制,由司法机关在参考专业技术意见的基础上,对严重侵害人类利益的人工智能体适用以技术性危险消除措施为内容的对物保安处分,回避以刑罚规制人工智能体刑事风险必须具备可非难性的局限,进而为人工智能的发展预留必要的法律空间。
关键词:人工智能体;刑事风险;刑事归责;刑事责任主体;对物保安处分
一、人工智能体的刑事风险是“真问题”
得益于深度学习、大数据、大规模计算三位一体的联合驱动,人工智能势不可挡地从封闭的实验室走向开放的商业应用道路,其蕴含的强大赋能效应,使得智能思维、智能工厂、智能设备、智能产品及智能管理等不断涌现,正推动人类社会迈入智能时代。不过,如同促进人类社会发展的其他科学技术一样,人工智能在将人类从繁琐纷杂、枯燥单调的工作中解放出来、推动人类社会完成跨越式变革的同时,其内在的不确定性也衍生出影响人类生存和发展安全的现实及潜在风险,客观上引发人类对人工智能安全性的极大忧虑。
上述批判意见的确为当前相对激进的人工智能刑法学研究提供了理性反思的契机,但断言人工智能刑事风险乃“伪命题”、研究人工智能体刑事归责系以“伪问题”替代“真问题”却不足取,因为它无视人工智能潜在的负面效应给人类带来的危险和危害,犯了从一个极端走向另一个极端的错误。
(一)人工智能内在之刑事风险具有不容否认的客观真实性
(二)刑法谦抑性难以否定刑法规制人工智能风险的必要性
(三)人工智能风险刑法规制需要教义学与立法论衔接互补
就人工智能体侵害法益及其归责问题来看,现有刑法教义学资源能够基本解决自主性较弱的弱人工智能体侵害人类法益的刑事归责问题,但对具有较强(或完全)自主性、具备独立意识和意志的强人工智能侵害法益行为,却难以给予适当的刑法评价和处置,亟需建构性的“立法论”或“对策论”研究,通过引进新型归责模式来解决其刑事责任分配问题。就此而论,人工智能刑法学研究必然属于批判者所谓的“对策论”,只不过该“对策论”决非恣意的“对策论”,而是建立在新的“教义学”基础上的“对策论”,是对现有“教义学”的必要补充和发展。
二、人工智能体的刑事风险及其归责论争
在现阶段,人工智能体刑事归责论争的焦点在于:若人工智能产品“变坏”,在运行过程中偏离程序主动或被动侵害人类,该如何分配刑事责任?现代责任主义强调,刑事责任的发动必须具有正当化根据,任何人只能因自己可被非难的行为承担刑事责任。拥有自主意识的人工智能体受其深度学习的指引,在改变自己来适应环境变化的过程中有可能“自主地”“不被预见地”犯下严重侵害人类的“罪行”。在这种情况下,人工智能体研发和运行中所涉及的人类主体都勤勉尽责,所设计和所制造的人工智能体满足合理的产品质量标准,他们与人工智能体的恶行虽有关联但无因果,更无法具体预见人工智能体会严重侵损人类法益,追究其刑事责任将明显抵触现代责任主义。那么,应否肯定人工智能体自身的刑事责任主体地位,以填补人工智能体脱离人类控制而侵害人类风险中可能出现的“责任空白”呢?
三、不宜以刑罚来规制(强)人工智能体的刑事风险
蕴含强烈规范性谴责和非难的刑罚乃犯罪之最基本、最主要且最核心的法律后果,建构新型“刑罚”以实现对人工智能体自动性运行可能侵害人类法益的刑事风险进行刑事归责似乎是最直接的选择。然而,主张赋予人工智能体(特别是强人工智能体)以刑事责任主体地位,运用刑罚非难、制裁“犯罪”人工智能体以规制强人工智能体刑事风险的肯定论归责方案,虽对现代科技所带来的刑事风险保持了值得肯定的高度警惕,其重构刑事责任理论模型及刑罚措施对完善现行刑事责任理论与刑事制裁体系也具有启发意义,但却存在持论依据及论证路径方面的诸多误区。
(一)误将刑事责任能力视为刑事责任主体地位的充分条件
(二)混淆“自主意识与意志”和辨认与控制能力
(三)不当演绎单位作为独立刑事责任主体的法理
(四)新设刑罚方法难以切实发挥刑罚机能、实现刑罚目的
四、可能的方案:运用保安处分抗制(强)人工智能体的刑事风险
当前,人工智能技术正成为推动社会发展的重要动力,也是我国在现代国际竞争中实现“超车”的重要弯道,理应坦然正视且致力抑制或消除人工智能体带给人类利益受损的刑事风险,充分保护人机交互或人机融合中人类的利益和福祉。前述人工智能体缺乏被刑罚非难主体适格性的理论展开,旨在强调不宜赋予人工智能体独立刑事责任主体地位、径直追究“犯罪”人工智能体“刑事责任”的方式,解决人工智能体自动运行过程中侵害人类法益可能出现的“责任空白”,并不意味刑事反应机制不应介入人工智能体的刑事风险及其归责领域。
采用保安处分的方案破解人工智能体侵害人类法益的归责疑难,直面人工智能体内在的技术风险,既有助于摆脱人工智能体侵害人类的责任应当归咎于何种法律主体的纠结,回避以刑罚规制人工智能刑事风险必须具备可非难性的局限,进而为国家公权力介入人工智能体刑事风险的抗制提供理论支持和正当性根据,也有利于督促人工智能体的使用者审慎监管人工智能体的实际运行,及时阻断人工智能体内在刑事风险现实化流程,确保人工智能体始终在安全和值得信赖的环境中得到合理使用。毕竟对“问题”人工智能体采取的技术性危险消除措施必定会构成对使用者正常使用人工智能体不同程度的制约。
结语
注释
①本文在系统的维度使用“人工智能”的概念,基于人工智能系统驱动的实体则为“人工智能体”,特此说明。
②值得注意的是,保安处分因其处分内容及法律依据的差异,可以区分为刑事保安处分与行政保安处分两类。不过,刑事保安处分与行政保安处分虽然法律属性上存有区别,但二者的实质意涵均为消除或者抑制特定社会风险(人或物),保障社会安全。保安处分刑事性与行政性的固有区别,并不影响将技术性危险消除措施归入对物保安处分范畴的正当性,毕竟对物保安处分与对人保安处分是在处分对象维度对保安处分进行的类型化区分。
[参考文献]
作者:刘仁文,中国社会科学院法学研究所研究员、刑法研究室主任;曹波,中国社会科学院法学研究所博士后研究人员,贵州大学法学院副教授。