首页 » 论文导航 » 政治法律 » 正文
溯本正源:人工智能未来危害风险的理性去魅与刑法纠偏
 
更新日期:2020-05-22   来源:华东政法大学学报   浏览次数:280   在线投稿
 
 

核心提示:(一)技术去魅:被夸大的智能风险不具有刑法独立归责的客观基础1.风险的场域限制:市场逻辑的利益驱动导致危害风险范围有限任何新生事物的产生与蓬勃

 
 (一)技术去魅:被夸大的智能风险不具有刑法独立归责的客观基础

1.风险的场域限制:市场逻辑的利益驱动导致危害风险范围有限

任何新生事物的产生与蓬勃发展背后都有利益驱动。马克思曾指出,把人和社会连接起来的唯一纽带是天然必然性,是需要和私人利益,[29]人类社会后天任何技术之物的产生与发展都同利益密切相关。脱离利益的驱动则社会物质无发展之动力。毫无疑问人工智能作为新生之物,它的产生、发展和以后的广泛使用的背后肯定是利益驱动。所以,一个不容忽视的因素是人工智能的快速发展背后其实是经济利益驱动下的市场逻辑的产物。即从现有的国家战略和发展布局来看,人工智能主要是服务经济社会的发展的需求,这就决定了推动人工智能的发展必然有“成本—回报—收益”的经济效益的诉求。人工智能的天然具有经济属性,其产生与发展具有经济利益的目的性,其适应的领域和范围也具有有限性,即“有利我才在”。人工智能不可能向人或者动物的产生和存在一样,具有物种保全和延续生命的自然属性,从而可以“遍地存在”。基于人工智能经济利益的诉求性,导致其创设的危害风险的场域范围极其有限,其风险系数很低,甚至比不上“狗咬人”的风险系数。

2.风险的技术限制:被夸大的智能技术导致危害风险缺乏技术基础

现在探讨人工智能犯罪主体肯定说都是建立在超人工智能具有假设性的自主意识和能动行为的前提下,认为它会像人一样创设不可预料的危害风险。但是必须理性的审视人工智能的发展之路并非预想的一帆风顺,技术发展的结果能否造就出一个具有深度学习能力和独立行为能力的超人工智能是存疑的。前文论证的所谓技术奇点、图灵测试等都存在技术上的障碍或者难以解决的问题。现实的困难与美好的技术愿景之间存在很大的差异,能否克服这种技术障碍还有漫长之路需要走。被夸大的人工智能的危害风险,目前缺乏技术基础,未来存在技术障碍。从另外一个角度思考,“技术”具有两面性。人工智能能够自我产生危害风险,但人工智能也完全可以自我消解危害风险,利用人工智能的技术之盾,防备人工智能的风险之矛,也能够确保人工智能的风险被最小化。所以,被夸大的人工智能的危害风险,目前缺乏技术基础,未来存在技术障碍。3.风险的性质限制:从风险到实害的过程限缩降低了危害风险

人工智能无论其智能程度如何,其存在的风险,既有作为工具性的危害风险,也有作为自主性的危害风险。人工智能作为工具性的风险属于人的责任范畴。这种风险属于传统的风险范畴,天然存在且不可消灭。这种风险具有法律的可控制性和责任的归宿性。但对于人工智能自主性的风险还存在跨越时空性、不可预测性和复杂的关联性。所以,目前探讨的人工智能的风险都是一副概率性的图景。但刑法关注的危险和实害。从风险到危害或者实害的转变,是有一个逐步限缩的过程。首先,人工智能的应用风险要经过实验室的验证和运行,运行成熟了才扩展到社会应用领域。实验室具有风险的过滤作用。其次,人工智能的社会应用也有一个从局部应用到全面扩展的过程,相应的也会过滤掉一定的危害风险。最后,从风险到实害是一个从未然到实然的过程,这一过程风险可能发生实害,也可能不发生实害。当发生实害概率很低的时候,尽管有实害,但也属于刑法中被允许的风险范畴。

(二)价值去魅:未来智能风险属于传统风险无须改变传统的刑法体系

任何一个社会形态都天然的伴随着风险,从农业社会的自然风险到工业社会的机器风险到智能社会的科技风险。所以,社会层面的危害风险所处的阶段不同,条件不同,自然风险的表现形式也各异。无论社会如何变迁,社会风险的演变在性质上仍旧是人类活动的结果。对于人工智能时代的到来,人类要保持足够的主体自信和技术自信。在价值批判上,人工智能创设的科技风险依旧属于传统的社会风险范畴。传统的刑事法律体系完全能够有效应对未来可能出现的任何科技风险。

1.人工智能的危害风险不会引发人类的生存危机

风险一直伴随着人类社会发展而存在。风险包含自然风险和社会风险。法律关注和评价的是社会风险。社会中任何具有自主能动性的物,比如动物或者人类都可能成为社会风险的来源。如前述案例,人工智能也可以在社会应用场域之中形成对人或者物的危害风险。无论是作为工具型的人工智能还是作为独立自主型的人工智能只要活动在社会关系之中就伴随着一定的危害风险。这种人工智能的危害风险囿于刑法规范逻辑的限制,还不能评价为犯罪风险。即便立足于人工智能犯罪主体肯定说的立场而言,人工智能产生的犯罪风险仍旧属于传统犯罪中人性的犯罪风险的外在延伸。理性的审视这种衍生的犯罪风险,在事实认定和价值评判上,其仍旧属于传统的犯罪风险的范畴,最底线的思考人工智能独立犯罪也只限于特定领域的特定犯罪,其实质并没有脱离现有的刑法规定所保护的法益范畴。同时,从风险概念的本身来讲就意味着预防风险的逻辑。风险概念本身表明人们更加审慎的决定或者有意识的控制外界危害后果,使其尽可能的具有预见可能性。通过有意采取的预防性行动以及相应的制度化的措施战胜种种(发展带来的)副作用。[30]总之,人工智能的危害风险不会引发人类的生存危机。
点击在线投稿
 

上一篇: 溯本正源:人工智能未来危害风险的理性去魅与刑法纠偏

下一篇: 溯本正源:人工智能未来危害风险的理性去魅与刑法纠偏

 
相关论文导航
 
 
 
 
 
 
 
相关评论
 
分类浏览
 
 
展开
 
 
 

京ICP备2022013646号-3

(c)2008-2013 学术规划网 All Rights Reserved

 

免责声明:本站仅限于整理分享学术资源信息及投稿咨询参考;如需直投稿件请联系杂志社;另涉及版权问题,请及时告知!