现代技术发展所带来的社会问题越来越突显,如何对技术进行有效控制和反思愈发成为各个领域所关注的重要问题{1}。在互联网不断发展的基础上,多功能互动、人工智能、虚拟世界、注意力经济、在线视频等各方面的科学技能不断改进{2}。特别是近半个世纪以来人工智能飞速发展,带来一系列的法律问题。在人工智能逐渐完善的过程中,其所涉及的法律问题也开始由民事领域、知识产权领域向刑事领域转向。2017年9月22日,绍兴市公安机关破获全国首例利用人工智能技术实施的“特大侵犯公民个人信息案”,即“全国首例利用AI犯罪案”,利用人工智能犯罪活动已开始在我国出现。但是人工智能犯罪究竟带来何种新的刑法命题与难题?现有刑法理论又该秉持何种态度?目前国内尚缺乏关于这一问题的专门研究,一些基本问题亟需厘清,进而契合相关犯罪的治理需要。
一、风险语境下的人工智能
对社会风险的权衡与回应始终是刑事立法所需关切的理论与现实命题,人工智能技术的发展延伸了社会风险的图景,也为刑法带来新的难题。
1.人工智能的发展与风险
人工智能(Artificial Intelligence,简称AI)这一概念的出现一般认为可以追溯至1956年。此后,随着人工智能概念的不断发展,学界也在努力对其做出精确的界定。较具代表性的是从类人、理性、思维、行为这4个方面给出的定义。有学者进而认为可以从“能力”和“学科”两个方面给出人工智能的解释:从能力的角度看,人工智能是指用人工的方法在机器(计算机)上实现的智能;从学科的角度看,人工智能是一门研究如何构造智能机器或智能系统,使它能够模拟、延伸和扩展人类智能的学科{3}。根据诸多学者对于人工智能的界定,人工智能是人为创造的智慧,即在计算机或其他设备上模拟人类思维的软件系统{4}。笔者认为,以上界定大都肯定人工智能这一核心内涵:即人工智能是基于人类的设定或要求,通过计算机信息系统实施一定智能行动的实体或程序。
随着人工智能技术的发展和完善,其智能水平和社会意义也愈发彰显。美国国家科学技术委员会、美国网络和信息技术研发小组委员会2016年10月公布的《美国国家人工智能研究和发展战略计划》指出, AI系统在专业任务上的表现经常胜于人类。AI首次超越人类表现的主要里程碑包括:国际象棋(1997年)、Trivia(2011年)、Atari游戏(2013年)、图像识别(2015年)、语音识别(2015年)和Go(即AlphaGo围棋,2016年)。人工智能的社会应用也愈发广泛,如在医疗领域、人工智能软件特别是包含机器学习的软件、其提供了无需基于规则编程的数据学习的能力、可以简化将微量元素从初始化到市场化的过程{5}。目前其应用领域包括博弈、自动推理与定理证明、专家系统、自然语言理解、模拟人的性能、规划与机器人、 AI语言和环境、机器学习、神经网络与遗传算法、AI与哲学等{6}。我国也正在逐步推广和应用人工智能,其普及和发展已经在相当程度上改变着社会的发展和人们的认知。
但是,人工智能的发展也伴随着莫大的风险。如美国自动驾驶汽车特斯拉频频出事故:2016年5月间,在佛罗里达的一条高速公路上,一辆开启了Autopilot模式的特斯拉发生了车祸,致驾驶员死亡;2016年6月至8月间,特斯拉的自动驾驶汽车也屡屡发生车祸造成车主与其他人员伤亡。2016年9月,央视《法治在线》栏目曝光了特斯拉自动驾驶在中国出现首例死亡事故,特斯拉处于“定速”的状态,并未能识别躲闪而撞上前车。而2015年7月英国《金融时报》报道的大众机器人“杀人事件”中,大众承包商的一名工作人员不幸身亡,事发时其正与同事一起安装机器人,但机器人却突然抓住他的胸部,然后把他重重地压向一块金属板,最终导致这名工作人员因伤重不治身亡。新技术经常引起公众的焦虑,但人工智能进步带来的影响尤为显著{7}。就人工智能的风险,2015年霍金等签发公开信,警告称在进行人工智能研究的同时必须相应地采取防范措施,避免人工智能给人类社会造成潜在伤害。公开信指出:在短期内,人工智能技术将让数百万人失业。在长期内,人工智能可能潜在地让机器的智商远远超过人类,做出违背编程的举动。而在社会层面,如何从法律特别是刑法角度思考和回应上述风险也正是需要思考的问题。
2.人工智能的刑法命题
风险社会的发展变迁是现代刑法所必须面对的社会现实。自德国学者乌尔里希•贝克1986年出版《风险社会》一书以来,“风险”成为理解和诠释社会变迁的一个关键性概念,“风险社会”随之也成为解释世界的全新范式{8}。在这一过程中,风险社会的到来无疑对于刑法理论与实践产生了巨大的影响。由于风险的增大和嬗变,风险社会中公共管理的基本方略发生了重大变化,根除风险几乎已经不可能,如何防控和分配风险成为社会管理的新命题,刑事立法与实践的导向也因此发生重大变化。据此,有学者提出通过制度规范适应变动的社会是现代社会的法律传统{9}。而在风险社会的逻辑支配下,一种新的刑事法律体系和一种新的刑法理论应当而且必须建立{10}。有学者已将人工智能的风险延展至风险社会的范式下予以研究:认为人工智能的首要问题是安全问题,可以置于风险社会理论的研究范畴之中。进而指出人工智能时代的社会风险具有以下特点:一是风险的共生性;二是风险的时代性;三是风险的全球性{11}。
纵观世界各国,关于人工智能法律及相关规则体系的探索正在进行之中。决策者和学者正在越来越多地关注法律和道德秩序如何适应愈来愈多的机器、机器人和人工智能设备的问题{12}。立法者、法院和监管者都需要思考人工智能是否有任何特殊性以至于需要新的规则,以及如何以合适的方式介入人工智能新问题{13}。即需要回应这样一个全新命题——现有的法律条文是否可以应付人工智能带来的全新和技术复杂的挑战?2016年5月,欧盟议会法律事务委员会发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》(Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics);同年10月,发布研究成果《欧盟机器人民事法律规则》(European Civil Law Rules in Robotics)。2016年12月,电气和电子工程师学会(IEEE)发布《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿景》(IEEE Ethically Aligned Design Document Elevates the Importance of Ethics in the Development of Artificial Intelligence and Autonomous Systems),具体包括8大主题,即一般原则、将价值观嵌入自主智能系统、指导伦理研究和设计的方法论、通用人工智能和超级人工智能的安全与福祉、个人数据与个人访问控制、自主武器系统、经济和人道主义问题以及法律。在(人工智能)自动驾驶领域,2016年3月23日,联合国关于道路交通管理的《维也纳道路交通公约》获得修正;美国道路交通安全管理局(NHTSA)于2013年发布《自动驾驶汽车的基本政策》;德国立法机构2016年对《德国道路交通条例》所规定的“驾驶员在车辆行驶过程中全程保持警惕”“驾驶员的手不能离开方向盘”等条文启动立法修正{14}。但是迄今为止,关于人工智能犯罪的立法还处在探索阶段。