学术视点

您现在的位置: 网站首页 > 学术视点 > 正文

林星成:人工智能涉罪问题研究

来源: 发表时间:2022-05-25 15:38:34字体大小:

来源:《上海法学研究》2021年第19

转自:上海市法学会

作者:林星成

一、问题的提出

2019829日,世界人工智能大会在上海隆重开幕。来自全球各个国家和地区的顶级人工智能科学家、行业专家乃至企业家,围绕人工智能的核心技术、行业落地、发展要素等问题进行了深刻探讨,掀开了人工智能发展的新篇章。然而在国内甚至国际上的政府层面,根据《G20国家科技竞争格局之辩》系列报告的数据显示,各国政府积极开展人工智能领域布局,以递进式、持续性的专项战略或规划引领人工智能的发展方向。遗憾的是,虽然不少国家和机构出台了相应的法律法规和原则主张,但各国间仍缺乏大家共同接受的人工智能治理原则和在价值观和理念上的共识。在学术研究层面,对人工智能领域的学术研究热度更可谓持高不下,围绕人工智能时代之挑战久久呈百家争鸣之局面而不散,虽然美国的人工智能总体科技实力位居G20国家首位,可中国紧随其后且增速明显,尤其是近五年的论文影响力和技术研发实力已超过美国,由此可见在中国学术界对人工智能的研究之狂热。然回归到刑法学领域,纵观业已发表的相关论文,不难发现,人工智能的学术研究已向反智化批判阶段悄然过渡,皆是由于对人工智能的研究前期急于求成,导致出现了迄今为止人工智能涉罪问题研究的种种偏误,例如概念比附、刑事风险夸大、真伪问题难分、对策论缺乏体系和论证等。而究其根本皆是由于在人工智能法学领域的教义学研究严重不足,才会招致这本末倒置、偏误丛生的学术境地。由此可见,在如今稍显浮躁的人工智能法学研究领域,从法教义学重新对人工智能涉罪问题展开理性分析显得尤为必要,也只有以法教义学为研究前提,才能使由此散发而出的对策论有章可循、有据可依,否则脱离了教义学的所谓“研究成果”终不成体系、零散无章而沦落为昙花一现的学术泡沫。

二、人工智能涉罪问题之本质

近些年来,关于人工智能涉罪问题讨论的非凡激烈,综合看来,大多是基于人工智能体刑法地位的各抒己见而引出的相应对策论。但其中不乏存在诸多不足或称谬误:法学界人工智能概念漫天遍地,充斥着不一而足的概念比附;由现有的智能机器致人损害事件浮想联翩出人工智能时代巨大刑事风险,却因对现有的“人工智能”产品认识不足而难掩杞人忧天之态;急不可待地将人工智能划出强弱之分,并建议赋予强人工智能以犯罪主体资格,继而提出删除数据、修改程序、永久销毁等新型制裁措施,却因缺乏教义学的支撑而存在着显而易见的逻辑矛盾。凡此种种,皆足以证明教义学之重要性。易言之,对于人工智能涉罪问题之本质的研究,必须以刑法教义学为出发点,方得始终。

(一)人工智能相关概念整饬

在刑法的体系性思考中,类型性的思考方法也许是最为重要的。法教义学是一种概念法学,而这里的概念本身就是一种类型。所谓的概念法学,是指因概念的封闭性而使法律规范形成对司法者的某种限制,以保证一般正义的出现。阿图尔·考夫曼(Arthur Kaufmann)更认为,立法者的任务是用概念对类型加以描述,因为立法是类型概念化。反观目前关于人工智能的法学研究中,不仅对于人工智能这个属概念的定义已经五花八门,更由此导致人工智能的相关产品的指称名词多到令人眼花缭乱,诸如人工智能体”“智能机器人”“人工智能”“人工智能产品”等,更有不少学术文章将人工智能的属种概念混淆不清,直接粗暴地以“人工智能”代替“人工智能体”或“智能机器人”贯穿全文。但诚如前述,概念正因为其所具有的封闭性才具备通过法律规范对司法者的限制,现如今的人工智能相关概念尚未统一,诸多学者各行其道,在各自所理解、使用的概念基础上所做出的学术研究更像株株细弱树苗,无法汇聚成参天大树继而不断向新高度生长。

英国数学家艾伦·图灵(Alan Turing)于1950年首次提出了机器智能的概念,而名词人工智能Artificial Intelligence)则是研究人员于1956年达特茅斯学院的一次会议中率先使用。此后,数学、逻辑学、认知科学、及生命科学等领域纷纷对人工智能积极开展理论研究。然迄今为止人工智能既是指 通过计算机以及相关设备使机器能够复制或模仿人类行为的技术,又是属于雨伞术语(umbrella term),包括检索解决问题、知识表达、机器学习、自然语言处理、人工神经网络等主要技术。但人工智能的一个长期目标是发明出可以像人类一样或更美好地完成以上行为的机器。

基于生杀予夺的特性,刑法相比其他任何部门法而言都更需要精确与精细,故关于基本的概念问题绝对不能似是而非、随意附会。在现有的人工智能法学领域,首先,从技术角度而言对“人工智能”并不存在统一的理解,更遑论法律层面;其次,“机器人”一词最早出现在20世纪20年代,捷克剧作家卡雷尔·恰佩克(Karel Capek)在其剧本《罗萨姆万能机器人公司(R.U.R)》中第一次使用该词。在该剧本中,机器人是指在工厂里被用作奴隶劳动力的人造人(artificial humans),但是时至今日何谓机器人仍然没有定论,这说明我们处于一个十分早期的阶段,只不过大多数人能够同意:能够对外部刺激作出反应且不需要直接的或持续的人类控制就可以采取行动的人造物体就是一个机器人。我们并非反对在人工智能技术方兴未艾之时对其概念展开讨论并赋予各自的理解,毕竟学术争鸣自古有之也更能推动学术研究的发展。我们反对的是当下人工智能相关概念随意比附的些许乱象,甚至在对人工智能理解不清、界限不明的基础上便对人工智能体是否能够具有犯罪主体资格、犯罪主客观方面认定以及刑法规制措施等难题上深入探析。

(二)强弱人工智能划分方式之局限

“强人工智能”一词最初是约翰·罗杰斯·希尔勒针对计算机和其它信息处理机器创造的,后被引用到其他学科。迄今为止,法学界大部分学者都认同将人工智能划分为弱人工智能(Artificial Narrow Intelligence)与强人工智能(Artificial General Intelligence)(又被称为一般人工智能和完全人工智能),划分标准大多为人工智能是否具有辨认、控制能力或自主独立意识。在此基础上,学者们以强弱为标准,认为应当赋予强人工智能体犯罪主体地位。此类观点的推理逻辑是:责任能力是判断刑事主体资格的核心要素,而除少数观点外,大部分学者认为刑事责任能力等同于辨认能力和控制能力,继而推理出人工智能体在拥有辨认能力和控制能力即意志独立于研发者和使用者的意志之外时应当拥有刑事主体资格。强弱人工智能的划分方式使人工智能体是否拥有独立意志成为多数人最为关注的对象,从而引发出了是否赋予人工智能体犯罪主体资格等深层次理论问题。但面对人工智能涉罪问题之时,人工智能体的独立意志存在与否并非人工智能涉罪问题之本质,因为无论人工智能体是否拥有独立意志,其都不应当拥有犯罪主体资格。

第一,传统刑法格局中仅自然人与单位具有犯罪主体资格,倘若当真要赋予强人工智能体犯罪主体资格,首当其冲的是构建新型刑法体系,再经由新体系按刑法规制过程逐渐衍射出旁支细节,可方今的学术研究成果皆是直接由强人工智能的犯罪主体资格直接提出了各种新型制裁措施,无体系性思考、无体系化构建,靠零散无依的观点苦苦支撑,最终只能归于湮灭。第二,假使真要对人工智能体是否能够具有犯罪主体资格进行探究,也绝不能仅仅依据其拥有辨认能力与控制能力便草率地得出肯定结论,而应当比照现有传统刑法体系中的自然人与单位进行体系性思考:首先,强人工智能体不可能同自然人一般获得犯罪主体资格。人工智能正在飞速地发展,很多方面的能力超越人类是避无可避,因为人工智能的发展本就是为了全人类的福祉,其能力超越人类能够更好地服务人类、解放人类劳动力。但同样必须明确的是,即使各个方面的能力都超越人类的强人工智能体也不可能获得完全的、不受限制的、与自然人平等的社会主体地位,因为强人工智能体的本质与自然人完全不同,尊重人类尊严并辅助人类是人工智能技术发展过程中必须遵循的核心原则。也有观点认为强人工智能体“本质上是类似于奴隶的行为体”,进而认为强人工智能体可以比照人类奴隶命运改变史而逐步取得并拓展其人格。但笔者认为,这样的推论无法成立。因为如上文所述,奴隶的本质同样是人,因而才有拓展其人格的可能性。而强人工智能体基于其本质与自然人的截然不同,是无法通过此途径获得 独立人格的。至于此前沸沸扬扬的沙特阿拉伯机器人索菲亚获得公民身份,更多掺杂着政治噱头,不足以代表人工智能体将能获得法律人格的发展趋势。

故而强人工智能体若要获得主体资格只能效仿单位经由拟制途径取得。但且不论迄今为止仍有学者对单位的犯罪主体资格存疑,仅是认可单位的犯罪主体资格的观点而言,都承认只有具有刑事主体资格的单位应当具有实现刑事责任的可能性,即只有拥有独立财产才能有效地实现刑事责任(双罚制)。于人工智能体而言,人类大力发展人工智能旨在服务人类本身,而非基于代际利益平衡普惠性地创造出与人类具有平等主体地位的生物共占地球,故其财产权利自然应当受到限制,更何况让人工智能体分割人类的财产有悖于创造人工智能体的初衷。如此一来,赋予强人工智能体犯罪主体资格便失去了现实意义。

(三)工具型与独立型人工智能体犯罪

如前论述可见,无论是人工智能体是否拥有独立意志还是是否应当赋予人工智能体犯罪主体资格皆不是人工智能涉罪问题之本质。笔者认为,对于该问题本质的梳理应当跳出强弱人工智能的划分标准的局限视角,重新将人工智能涉罪情形划分为工具型人工智能体犯罪与独立型人工智能体犯罪。需要强调的是,该划分标准并非以强弱人工智能体为界限,而是根据人工智能体在犯罪中担任的角色所进行的划分。既然已经对强人工智能体的犯罪主体资格予以否定,故当人工智能体进行犯罪之时,亟需我们关注的并非其是否拥有辨认和控制能力而是它在犯罪事实之中所扮演的角色或者说所承担的作用。

对于工具型人工智能犯罪而言,顾名思义人工智能体在犯罪过程中充当的是工具身份,这与其是否具有独立意志无关。若是人类使用弱人工智能体进行犯罪,与其持有传统作案工具如刀、毒药等基本没有区别;若是人工智能体拥有独立意志而人类利用其进行犯罪,与其指使动物或没有犯罪意图的第三人也没有本质的区别。所以无论如何,工具型人工智能犯罪与传统犯罪方式本质无异;对于独立型人工智能体犯罪而言,即人工智能体由于自身存在的意识而独立实施了犯罪行为。此种类型的犯罪只能由强人工智能体实施,且虽然其犯罪行为超出人类之意志,但仍然属于传统刑法格局可予以规制的犯罪类型,即落实监督过失责任。

综合重新划分的两种犯罪类型来看,人工智能涉罪问题之本质并非涉及到确立人工智能体犯罪主体资格的颠覆理论性问题,无论是工具型人工智能体犯罪还是独立型人工智能体犯罪,都至多只不过是传统犯罪数量飙升、犯罪方式急剧增加甚至犯罪手段的社会危害性攀高等新变化而已。譬如,工具型人工智能体犯罪可能更具便利性与隐蔽性等特征,现实中有犯罪分子利用无人机和红外照相机寻找大麻作坊,并操纵无人机盗窃大麻。正因为如此,我们才需要从刑法教义学角度进行展开,从原则、立场、价值取向到路径与主要方法,从应然到实然、从理论到实践对人工智能涉罪问题进行高效有序地处理。

三、人工智能涉罪问题处理的基本原则、立场与价值取向

所谓教义刑法学,并非仅仅是机械地对法条进行注释,也并非是单纯关于法条的知识,而是最大程度地包含了法条背后蕴含的法理价值,形成完整的刑法价值体系。而学术研究中的体系性思考(system-denken)与问题性思考(problem-denken)之间的对立由来已久,自1957年起,体系性思考还是问题性思考”“从体系性思考到问题性思考之类的话题屡被提及,但对于法教义学而言,体系性思考是更为重要的,也是问题性思考所不能取代的,因为其通过刑法基本原则、刑法体系立场乃至价值取向等理论层面对现实中面临的问题进行高度挈领与指导,并运用体系性解释予以解决。

(一)人工智能涉罪问题处理的基本原则

刑法的基本原则是刑法本身所具有的贯穿全部刑法规范、具有指导和制约全部刑事立法和刑事司法意义,并体现我国刑事法治基本精神的准则,存在鲜明的全局性与根本性。既然刑法基本原则是贯穿整个刑法典或者刑事司法的基本信条,对于人工智能涉罪问题的规制自然同样应当遵循刑法基本原则。

明文规定不为罪以及法无明文规定不处罚,正因此原则的价值指引,诸多学者认为传统刑法格局已无法规制人工智能时代产生的新风险,故而提议推翻现有立法,盲目地出谋划策以应对所谓的人工智能时代面临的刑事挑战。例如有学者提议增设滥用人工智能罪,可即使人工智能时代犯罪的数量、方式乃至社会危害性都不可与今时同语,但实际上“滥用人工智能罪”规制的仍然只是工具型人工智能犯罪,无论是强人工智能体或是弱人工智能体在犯罪过程中皆仅作为高级工具被使用,人类在其中掌握着绝对的支配与控制权,故其本质仍然是以人工智能体为犯罪手段或方法的传统犯罪,间接正犯等传统刑法理论框架足以将其包罗,其行为可直接由现有罪名进行评价,无涉所谓“新的犯罪领域”。罪刑法定原则的倡导与确立并不是鼓励面对新出现的犯罪情形时一味地寻求增设罪名来对其加以规制,而是充分引入了罪刑法定主义的形式合理性与限制机能。立法的使命是将实质合理性转化为法律规范,进而转化为形式合理性,罪刑法定原则的存在便是倡导司法层面应当恪守形式合理性。毕竟,立法者无法算无遗策地将社会当中所有应当受到刑事处罚的行为于法典之中一一陈列,立法能力的有限性与犯罪行为的无穷性之间的矛盾至始至终都是存在的。况且基于生杀予夺的特性,刑法典决不能朝令夕改,必须具有稳定性,这就决定了刑法的谦抑特性,即刑法需要滞后于犯罪现象的发展。甚至在某些情况下,为获得形式合理性,不得已需要以牺牲实质合理性为代价,但可以明确的是,罪行法定原则是极力主张司法领域对法典的尽力遵循而非成为学者动辄建议立法的垫脚石。罪刑法定原则最高目的便是防止享有充分权利与自由的公民受到除法律明文规定之外的无端惩治。

又如,罪责刑相适应原则要求刑罚的轻重需要与犯罪的社会危害性与犯罪人的人身危险性相适应,以实现报应的正义性要求以及预防目的的合理性要求。然前文已述,由于人工智能时代所涉犯罪的难易程度、社会危害程度等多方面因素皆有很大可能会取得井喷式飞跃,而人工智能犯罪的难度降低以及方式多样化无疑将在极大程度上提高其传统犯罪的社会危害性乃至犯罪人的人身危险性。因此在面对此类状况时自然应当对运用新型智能方式等实施的传统犯罪所苛责的刑罚予以相应调整,以便能够继续遵守罪责刑相适应原则。再如,适用刑罚平等原则是基于我国宪法所确立的一项社会主义法制基本原则,即法律面前人人平等原则。但人工智能体无法拥有与人类完全平等的公民主体地位,如若赋予人工智能体犯罪主体资格使国家机关可直接对人工智能体加以惩处,那么将会与法律面前人人平等原则乃至适用刑法人人平等原则相悖反,因此从遵循刑法基本原则的角度视之,面对人工智能涉罪问题时也不应当支持人工智能体的犯罪主体资格。

(二)人工智能涉罪问题处理的刑法立场

在面对人工智能时代的诸多刑事风险的处理之时,刑法基本立场应当得到足够的重视。人们往往通过自身的教育背景、思维模式以及个人阅历等因素形成对法学判断的先见,从而实现自己对某个问题的理解。但归究到刑法学法理而言,不同的理解与看法往往与人们所持的刑法基本立场休戚相关。因此从刑法立场角度对人工智能涉罪问题切入分析尤为必要。

以犯罪本质立场为例,学术界主要存在规范违反说与法益侵害说两大分支,但长久以来两种学说在大部分罪名法理解释上皆有一定的重叠性,但在针对部分罪名解释时又各自发挥其独特的学说价值,可见二者各自都不能单独地成立完美无缺的犯罪本质立场。但在人工智能时代,强人工智能体的到来势必会对社会秩序乃至整个法律体系的秩序进行重塑,那时规范的社会意识将会大大增强,对于规范违反说与法益侵害说在人工智能相关犯罪的本质立场上势力也将会重新割据。笔者认为,在人工智能时代应当以规范违反说为主要立场,再辅以法益侵害说, 方能对人工智能所涉犯罪进行合理解释。从规范违反说来看,工具型人工智能体犯罪应当对幕后操纵者科处刑罚,这是因为其违反了原本秩序井然的社会规范进而触犯了刑法规范,不过此时运用法益侵害说同样可以得到较为完满的法理解释,毕竟工具型人工智能体犯罪与传统犯罪的本质并无差异。但对于独立型人工智能体犯罪而言,法益侵害说便稍显力不从心:强人工智能体脱离人类控制而独立实施犯罪行为,侵害了他人法益,此时侵害法益的是人工智能体本身,其监督控制者并未直接造成被害人的法益受损,但由于人工智能体无法拥有犯罪主体资格,因而使用法益侵害说而对监督、控制者受到惩处的法律责任后果进行解释未免牵强;相反,强人工智能体的监督控制者负有对其监督看管的法定义务,一旦疏于看护使人工智能体脱离掌控而侵害他人,便是明显地违反了为公众所承认以及为法律所规定的社会监督秩序,此时再对监督控制者进行刑事处罚便显得理所应当,这是规范违反说能够给予的最优解释。

再由刑罚目的立场来看,报应论与预防论皆各自形成了鲜明派系。但是首先应当明确的是,无论是采用报应论还是预防论都决定了人工智能体不能拥有独立的犯罪主体资格:报应论的基础和意识来源是由来已久的同态复仇和等害报复的人类普遍价值观。直觉式的本能意识为刑罚目的涂抹上了报应论的色彩,但为实现报应,究之根本,是要使犯罪人由于自己的行为受到严厉制裁和国家的否定评价而感到痛苦,无痛苦则无所谓之报应,然对于人工智能体而言且不论其无法感知到刑罚之痛苦,即使其有可能感受到制裁与否定评价的消极后果,面对人工智能体功能日趋精细化、专业化的趋势,有无必要将各类人工智能体全面安装痛苦感知系统更需慎思笃行;而从预防论的角度看,尽管有学者指出,未来人工智能体可能也会拥有情感,但与其说是“情感”,还不如说是数学程式运算的结果,仅仅是人类感情的投射和反映,不具有独立性和衍生性,希冀通过以算法形成的所谓“情感”对人工智能体起到特殊预防的功效未免有些荒唐。同时对于普通人类而言,对与自身本质差别甚大的人工智能体进行惩处也不能起到很好的一般预防效果。

其次,对于人工智能涉罪问题应当坚持以预防论为主,报应论为辅。在未来人工智能时代,各类秩序重新构建,科技风险显著增加,而以预防论为主既可以在制造阶段提高人工智能体制造厂商的技术标准与对安全性能的监测力度,又可以在使用阶段加强人工智能体的使用者、监督者的警惕程度;报应论的存在也有一定作用,是基于人工智能体看管者看管不力的主观过失与对监督秩序的违反而承 担的刑事责任后果。

(三)人工智能涉罪问题处理的价值取向

陈兴良教授认为公正、谦抑、人道是现代刑法学的三大价值目标,笔者认为,在人工智能时代到来之际,刑法的价值取向还会注重造就社会保护与促进经济科技发展之间的平衡。作为第一生产力的科学技术对经济发展的重要性不言而喻, 而人工智能产业的方兴未艾带来的正是新一轮的全面科技革新:机器人诞生于制造业,特别是汽车工业和后来的电子工业、食品加工业、纺织业等,并时至今 日依旧应用于这些领域。且随着人工智能的不断发展,其应用远远超出传统工业范围,其在军事、自动驾驶、医疗、老年护理等诸多实践领域都不断加深社会生活的人工智能技术的依赖性。人工智能技术所涉领域之多、范围之大决定了其未来在科技领域的重要地位,从而使其对传统法律观念与理论体系的变革产生了不可忽视的影响。人工智能的普及一定程度上加大了社会风险,虽然科技的副作用较大比例需要由科技本身以及行业规范的加强、开拓来防范弥补,但作为调控社会风险机制的法律也需要适应科技的进步进行修订或者变革,对存在的部分科技风险作出限制性规定,以达到防范与抑制科技负面效应、维护社会秩序的法律任务。

不过,任何产业、产品发展到极致之时都仍旧存在着难以预料的缺陷与风险,更何况人工智能涉及和应用到信息论、控制论、自动化等新型人类科学学科以及生物学、心理学、数理学等许多传统人类学科,其本身兼具高、精、密特性,这一技术的高度复杂决定了即便经过反复不断的调试,人工智能始终存在着技术发展阶段与水平的局限,人类终究无法掌握人工智能所有的安全风险,在此情况下若是人工智能体侵害人类正当权益乃至生命健康权,一味地寻求刑事责任承担者实为不妥,一则盲目地打压了科技人员的创新动力,二则阻滞了科学技术的向前迈进,在科学技术于世界各国、社会生产各领域都起着无可比拟作用的当今社会,如此做法将会付出更大的社会经济成本。遂在追求社会保护的同时,应当尊重、保证甚至促进科学技术的不断发展,寻求社会保护与科技发展之间的平衡支点。

四、人工智能涉罪问题处理的基本路径和主要方法

有学者认为刑法教义学使法律体系相对封闭,甚至极致之时将会走上教条主义之路。例如苏力教授便认为,刑法教义学仅在有效解决大量常规案件之时有用武之地,对于特殊疑难案件,刑法教义学分析由于脱离了政治性的判断以及政策考量等诸多因素而显得束手无策,最终的分析结果也尽显武断。但现代刑法教义学并非顽固不化地一味死守原地、形而上的坐而论道,而是在批判、质疑的基础之上不断辩证发展的。面对人工智能的大热潮,在匡正人工智能涉罪问题的本质、明确了处理人工智能涉罪问题应持有的刑法立场、基本原则与价值取向之后,自然应当对相应的刑事风险做出回应,对人工智能涉罪问题处理的基本路径与主要方法作出具体安排,才能做到临危不乱。

(一)人工智能涉罪问题处理的基本路径

任何新型法律问题的出现,都会存在两种解决路径——立法路径和司法路径。但是人工智能体不具备犯罪主体资格,将其单独立法缺乏理论支撑和现实依据,也存在实践上的困难,例如人工智能领域与医学领域、环境学领域专业技术要求迥异,其输入数据与输出答案之间存在无法洞悉的所谓“黑箱”,既无法观察更无法理解其试图的说明,在不明就里时为其单独立法难度极大;又如,人工智能作为高精尖产业,深奥复杂的科学专业术语数不胜数,要想将其一一转换为通俗易懂的法律语言绝非易事,毕竟这涉及到两门专业学科的高度衔接,可显而易见的是目前的立法者并未拥有人工智能的相关专业知识。因此,我们需要在不增加立法的情况下,依照现有法律法规处理问题,即通过司法途径处理相关案件,这便是人工智能时代应当选择的基本路径。

例如,交通肇事罪规制的是驾驶者违反道路交通管理法规而造成法定严重后果的主观过失行为,当无人驾驶技术的逐日兴起,或是可以将此罪名适用、评价部分新型交通模式,或是可以通过该罪名进行出罪处理并寻求其他部门法司法解决。在“人机交互”模式阶段,无论是人类与机器同时驾驶还是轮流驾驶,此阶段人类都负有高度的注意义务,倘若人类怠于看顾驾驶状况或疲劳驾驶仍然属于违反了道路交通管理法规,造成严重后果的仍然应当通过交通肇事罪予以规制;当无人驾驶汽车达到完全自动驾驶状态之时,无需操控车辆的人类无须更不愿保持高度警戒状态,正如在美国针对部分自动驾驶(等级2),只有纽约明确要求驾驶员需要始终至少将一只手放在方向盘上。当实现完全自动驾驶时,一个没有监测道路的人不会愿意保持在最佳的驾驶位置并能够时刻保持清醒;在实际需要之时,也并非所有汽车上的人类都有意愿、有能力获得并保持必需的驾驶技能以便安全地操纵车辆。此时如若汽车违反道路交通法规进而发生交通事故,无法苛求于一个未保持任何警觉甚至未有任何驾驶技能的乘坐人承担交通肇事罪的刑事责任,更多的应当倾向于对其做出罪处理,但可以转向保险制度寻求救济。

又如,生产销售伪劣产品罪在人工智能制造业同样可以适用,解释路径同传统犯罪相同,在此不加赘述。需要强调的是,当人工智能体经过调试无瑕疵之后,出厂销售仍发生故障,对使用者或他人造成极大损害,若经过专业测试发现生产制造商无任何过错且此缺陷是限于当时科技水平难以发现的,应当对生产制造商的刑事责任进行豁免,将其归属于意外事件。当然,出厂前严格精密的检测工作 必须是先行条件。再如,若购买者或者用户违反生产制造商明确标注的使用说明,私自对人工智能体进行改装使用,并因其改装导致人工智能体致人损害,对于生产制造商也应当进行出罪。

(二)人工智能涉罪问题处理的主要方法

在经由司法路径解决相关案件之时,我们可以具体采用一系列行之有效的方法将案件治理落到实处,主要包括案件分流、分流基础上的分类、分类基础上的充分解释,三项方法层层递进,缺一不可。

首先,案件分流,即将案件分门别类,分别由民法、行政法、刑法等不同部门法进行处理。任何法律责任的承担都需要以造成法益侵害为前提,而对法益侵害的严重程度决定了应予以调整的法律部门,其中责任后果最为严厉的刑法的自身应对是必然,然除刑法外的其他部门法也应当各自筹谋划策,以期与刑法交相呼应。第一,当人工智能体侵害他人是因为限于当时科技水平无法检测预防时,如前文述不应当由刑法对制造商等主体科处刑罚,而应该分流至民法领域,发挥产品责任的作用。我们否定人工智能体的法律主体资格的目的之一便是将其作为产品进行审视、规制,民法的产品责任自是应该当仁不让地发挥其应有功能。当人工智能产品产品责任作为严格责任,只须追究人工智能体致人损害与产品缺陷之间有因果关系即可,为的是最大程度地维护消费者权益,而不必经过专业检测其是否是限于当时科技水平不能察觉的缺陷,否则将会大大降低对消费者的保护力度与诉讼效率。第二,针对无人驾驶汽车真正达到完全自动驾驶阶段时发生的交通事故,同样如前文所述,不应当以交通肇事罪予以规制,而可以交由经济法领域进行适当调整,如可以修改保险法律规范、完善保险法体系,也可通过建立类似证券法相关规定的专项风险基金,如此既能有效调控风险、达到对无人驾驶汽车交通事故较为妥善的救济,又能避免抑制了新兴技术和产业的发展势头。第三,针对无人驾驶汽车制造方以及技术支持方等主体的技术缺陷引发的事故,有观点认为可以由行政法加以防控,可建立保证金制度使行政部门掌握更多管理的主动权,较被动的处罚也更具有操作性。此外,在劳动法领域立法者应当对人工智能发展带来的职业替代挑战高度警觉,并适时修改相关法律,尽可能保持其对劳动者、企业以及劳动力市场的调整功能。

其次,在案件分流基础上进行分类。当案件分流至各个部门法领域成为民法案件、刑法案件、行政法案件等之后,应该在各个领域内再进行细分以保证案件高效解决。以刑法领域为例,可将人工智能相关犯罪分为传统犯罪、计算机信息系统犯罪、网络安全犯罪等诸多类型。目前,利用技术手段入侵计算机信息系统的犯罪现象猖獗,在2017年,越城警方便破获全国首例利用AI人工智能侵犯公民个人信息犯罪的大案。利用人工智能破坏网络安全的案例也屡见不鲜,在人工智能时代必要时可在刑法典中单独列章分类规制。此外,为了加强落实监督过失责任,可针对监督不力的犯罪行为,通过增设人工智能事故罪加以规制。当然,即使定为人工智能事故罪,也应当根据监管者的监督能力大小、过错程度等具体情况合理量刑。

最后,在分类的基础上充分解释。法律规范先天的不周延性、不明确性以及不圆满性造就了法教义学方法的重要地位。包括刑法在内的任何法律皆为抽象且概括的,因而在面对具体个案之时将会难以避免地出现法律所不能及之情形,此时无论是法律人士或是社会公众都应当秉持“法律必须被信仰,否则它将形同虚设”的立场,不随意主张修改法律,而应当对法律进行合理解释,将“不理想”的法律条文解释为“理想”的法律规定。面对如今大行其道且日新月异的人工智能技术更是亟需充分且不断跟进的法理解释。理论上的法律解释方法多元化,包括体系解释、目的解释、扩张解释等等,都是能对人工智能涉罪问题进行合理归纳;实践上我国有极具特色的司法解释制度,足以在保证法典稳定性之下应对高速发展的现代社会法律问题。以扩张解释为例,交通肇事罪的主体原本是交通运输人员,但在人机交互阶段,人类可能并无驾驶汽车而仅仅履行监督义务,此时应当将此处的交通运输人员进行扩大解释,将此时汽车行驶监督者纳入到交通运输人员范围。

五、结语

尽管人工智能研发者至今仍无法有效破解莫拉维克悖论(Moravec's paradox),但现如今的人工智能法学研究已经如火如荼。可是在面对人工智能此类新兴技术对法学领域的冲击时,更多需要的是冷静思维,我们不否定对策论的功用,但过度追求对策论而抛却法教义学将会陷入学术泡沫的泥潭。反之,只有以教义学为基点展开思考,切实分析人工智能涉罪问题之本质,明确人工智能涉罪问题处理的基本立场、分析人工智能给刑法价值取向发展带来的影响,并且将这些落到实然之处,方能最为有效地将人工智能时代的刑事风险降至最低。



刑事司法学院

刑事司法学院公众号
Copyright© 山东政法学院刑事司法学院 All Rights Reserved.
地址: 中国山东省济南市解放东路63号 联系电话:(86)-531-88599878
鲁ICP备 10007285号 技术支持:网络信息中心