(一)学界的共识与分歧
在刑事法领域探讨人工智能的犯罪与刑事责任的问题,主要集中在两种情况来论证。第一种类型是以人工智能作为“工具辅助型”所产生的犯罪,即认为犯罪分子会利用人工智能作为犯罪工具,或者利用人工智能的漏洞实施各类危害行为。第二种类型是人工智能作为“独立自主型”所产生的犯罪风险。有学者提出了伴随人工智能技术的巨大进步,智能机器人有可能像霍金所预言的“第三类人”,这对传统刑事责任追究制度提出了挑战。[2]未来人工智能完全有能力在编程的数据范围之外实施独立的算法,从而实施严重危害社会的行为。[3]目前,学界已经形成了对于普通机器人的犯罪和弱人工智能的犯罪的责任主体是以“人”为责任主体、机器成为犯罪工具的学术共识。人工智能仅仅是犯罪工具,[4]人工智能无法作为犯罪主体而承担刑事责任。[5]人工智能作为支配性工具使用而犯罪的情形,在责任判断上不存在任何困难,完全可以通过现行刑法对于犯罪行为进行有目的的扩张解释或者针对智能风险之中的主观难题采用新的归责原则就可以规范应对。此种情况人类应该承担法律责任。
在学界存有争议的问题是在强人工智能能否单独实施犯罪行为从而单独成为刑事责任的主体?对这一问题存在两种对立的学术立场即“犯罪主体否定说”与“犯罪主体肯定说”。否定说的观点认为无论人工技术如何超能,其根本不具备独立犯罪的能力,不具有独立的犯罪主体资格,那种认为人工智能可以被拟制为犯罪主体的观点颠覆了刑法的根本基础。应当由人工智能产品背后的人承担刑事责任。[7]肯定说的观点认为人工智能已经脱离了人工的范畴,也不是单纯的技术产品或者人的工具。智能技术赋予其独立的行为,即人工智能可以脱离数据的控制或者算法的程序约束,从而具有独立行为能力的情况之下就具有独立的犯罪主体地位和刑事责任能力。[8]
(二)本文问题的界定
本文探讨的问题界定在上述第二种情况,即预设性的考量人工智能未来能够产生独立意志并实施独立行为之下的犯罪风险。为了缓解社会对于强人工智能时代责任承担主体不明的担忧和恐惧[9]对(强)人工智能赋予犯罪主体资格,让其独立承担刑事责任的问题。本文论证问题是基于人类恐惧超人工智能的未来的危害风险是否符合智能风险产生的内在规律?赋予人工智能刑事主体资格是否契合刑法的性质与体系性规范?