法学毕业论文

您当前的位置:学术堂 > 毕业论文 > 本科毕业论文 > 法学毕业论文 >

浅谈自主性机器人的法律责任

来源:学术堂 作者:师老师
发布于:2019-10-30 共7615字

  摘要:已实现自主化的机器人,主体地位和责任问题并不明确,从权利主体自然人和法人获得主体地位的历史演变和理论上看,自主性机器人更符合法律关于主体理性的界定,即有必要承认其独立的法律地位。在责任承担方面,以当前侵权责任体系中的过错责任和严格责任为标准,阐述与自主性机器人相关的生产者、销售者和所有人依据当前现有的责任体系承担责任的可能性,得出自主性机器人可以独立承担责任,并建议可采用强制责任保险制度、建立机器人团体机构特别是基金形式和加强体系化管理生成机器人专属编号,来完善机器人责任体系,解决人类对机器人的“歧视”。

  关键词:自主化机器人,法律主体地位,责任承担

法学毕业论文

  一、引言

  网络化社会——大数据时代——人工智能的无间隙发展,我们很难以确定的时点来划分三者的主导时期,新的时期带来新的研究热潮——人工智能。有学者对机器人以弱、强、超进行划分,笔者认为可根据自主化程度的不同,对于完全按照指令以及输入的算法进行操作的机器人定义为非自主化机器人,对于可根据海量数据进行深度学习和在实践环境中的新数据实时改变自己规则的机器人归于自主化机器人范围,与之对应的即是强人工智能和超人工智能。

  本文主要研究的是人工智能的法律问题,且局限于自主化机器人,以机器臂为代表的工业化机器人,根据输入的规则进行重复性的单一活动,在法律上仍看作为“产品”,其发生侵权事件时,责任主体、赔偿范围依据《产品质量法》及《侵权责任法》即可得到清晰的界定。自主化机器人基于其自主学习能力高,智能开发水平接近于人类甚至在未来达到超人类,虽然目前达到理想状态的自主化机器人并不存在,但高智能机器人已初现规模,例如谷歌AlphaGo、最强版AlphaGo Zero、史上第一个被颁发身份证的索菲亚机器人。这一系列令人惊讶的机器人事件,是理论上自主化机器人的雏形,对现有的高智能机器人进行法律上的定性,是“机器”还是一种特殊的“人”,为确定自主化机器人的法律地位以及承担责任的主体奠定基础。

  二、人工智能法律问题现状

  索菲亚与人的高度相似性,使其创建者汉森坚定的认为“我们将进入与机器人共存的时代。”从目前看来,机器人的智能程度并不局限于扫地、装配产品等初级工作,人们在感慨科技发展速度的同时,担忧远胜于喜悦,“人工智能威胁论”[1]的衍生使人们在继续开发更加智能的机器人与维护人类对世界的主导地位之间产生了抉择。

  人工智能(Artificial Intelligence)简称AI,是作为研究、开发用于模拟、更新和扩展人的智能的理论方法、技术及应用系统的一门新的技术科学,旨在了解智能的实质,并生产出一种新的能以人类智能相似方式做出反应的智能机器。[2]人工智能在上个世纪50年代就已经提出,并不算一个新的概念,如今人工智能的发展速度及成果,使我们不得不重新审视这个存在了60多年的“老家伙”。对人工智能的法律问题的思考,并不是法学家无病呻吟,虚无缥缈的想象,而是基于近几年发生的机器人侵权案件,当前现有的法律体系已无法进行准确的定性和公平的责任划分。有专家预言,在未来20多年后,自动驾驶汽车将会占据汽车市场的75%,但自动驾驶汽车的“交通”等相关法律问题仍未得到解决。特莱斯的自动驾驶汽车与美国谷歌公司研发的无人驾驶汽车在实际运行后均发生事故,因此对自动驾驶汽车的法律主体资格认定,争论较大,2016年,美国国家公路安全交通管理局认定,谷歌的无人驾驶汽车采用的人工智能系统可以被视为“司机”,这就在一定程度上肯定了其虚拟的“法律主体资格”。[3]法律地位的确立,也就相应的确定了责任主体以及承担责任的方式,但该种认定只是一家之言,并未达成共识。2017年百度创始人李彦宏在北京驾驶无人汽车,被交警拦下,同年我国首次确定对自动驾驶汽车的临时上路放宽限制,但对测试期间的交通事故责任,是归于测试驾驶员承担,可见我国目前并未承认无人驾驶汽车的法律地位。认定自动驾驶汽车在法律上的定性仍为“产品”,是各国法律的主流,但依据现有的发展程度,我们完全可以预想到脱离科研人员的指令,根据输入的庞大数据自主性学习和驾驶过程中遇到的新情况实时调整行驶状态,达到理想的自动驾驶汽车共享时代。在这种高度的自主性下,再将责任完全归于汽车生产商、使用者以及智能系统的研发者难谓公平公正。

  三、自主化机器人的法律地位

  2016年欧盟委员会法律事务委员会提交动议,要求将最先进的机器人“工人”定位于“电子人”,并赋予特定的权利,如著作权、劳动权,该项动议表明自主化机器人可能会在欧盟获得法律身份。在瑞士,也已有雇主为机器人缴纳雇员税的先例。自主化机器人真的应该赋予其法律资格吗?是应定性为“产品”?“其他人”?还是“电子人”?

  1、自主化机器人主体地位确定的历史正当性

  从目前已获得权利主体资格的自然人和法人而言,主体地位的取得并不是一蹴而就的。谈及自然人主体地位的历史演变,从奴隶时期到种族歧视以及妇女姓名权的解放,均是经历了由无权至权利意识觉醒,最后获得平等社会地位的漫长过程。对于法人,在这种团体形式刚刚兴起时,学者也对其法律本质争执不下,主要以“法人实在说”、“法人否定说”以及“法人拟制说”为代表。立法者采用“拟制性人格”的方法确认了其权利主体资格,即法人是法律上拟制的人。法律主体资格的确定,法人的民事权利能力、行为能力和责任能力也随之确定,因此法人作为现代社会经济发展的重要形态,改变着人们的日常交往方式。

  人工智能将人们从危险繁重的工作中拯救出来,改变人们的出行工作方式,给社会带来可喜的变化,“利他行为”的属性使人们无法回避机器人的存在。从权利主体范围的变化来看,社会发展进程带来的新事物,在占据一定的社会份额后,将成为新的权利主体,权利主体范围的扩大,使未来的自主化机器人完全有可能被包含。机器人的研发速度远高于人们的进化速度,自主化机器人的智能程度超越人类并不是空想,就如同劳斯莱斯公司谈论无人商船:“十年后海上运输将出现无人商船,实现这一目标已经不是技术问题,而是大量的法律问题”。[5]这句话在机器人上也是同样受用,授予自主化机器人法律地位在历史上具有正当性,也是社会发展的必然趋势。

  2、自主化机器人主体地位确定的理论正当性

  机器人是人工智能的一种形式,其组成部分包含了一个传感器或其他转入机制,一个起控制作用的运算法则以及对外界做出回应的能力。[6]这种“感知—思考—行动”的模式是依据人脑对事物的反应过程所构想的,以期望机器人可以像人类一样思考,一样工作。索菲亚机器人引起世界震惊的原因之一即是与人的高度相似性,对机器人智能化的研究不仅面向工作能力,还注重机器人外表与人的高仿性,细微丰富的表情与真实的人类真假难辨。但仅仅依据外表的近似和原理相同的大脑运转模式就确定机器人的权利主体资格,未免显得过于轻率。在研究机器人应否赋予权利主体资格时,我们需要明确两大概念——自然社会的“人”与法律中的“人”,通常当我们谈论法律主体时,是以“自然人”为一类,自然人就是自然状态出生下的人。但在法律条文中的自然人并非与现实生活中的自然人为同一内涵,法律上的主体是基于理性人的一种假设,这种理性人是经过法律形式化处理的,涤除了个性、偏好、情感等非理性因素。[7]对“法律中的人”我们要求他理性,权利与权利的界限要求理性的人对自己的行为加以限制,在从事法律行为时摒弃感性和一切不理性的行为。因而,虽说同用“自然人”这一概念,法律上的“自然人”内涵应限缩为一个理性的人,依此为标准,确定机器人为法律主体应要求其达到理性的高度。罗素认为,智能机器人应该具有“有界优化”,在给定可用信息和计算资源的情况下,能够产生最大的成功行为。[8]即在给出最佳解决方案的问题上,机器人就已经强于人类,同时机器人在储存信息、整合资源、运算至得出最佳规则的能力上表现优异。人类自认为强于机器人的是人有感情,在这一点上机器人目前直至未来的很长时间内都不可能实现,这只能代表机器人与人不能划上等号,评判应否有法律上的主体地位,并不是以人类作为模具,一丝一毫不能有差距,而是看是否符合法律上的标准,去除感性等干扰因素,成为法律上理性的“人”,自主化机器人具有天生的优势,受外界的妨碍较小,更不可能存在感情困扰的情形,比人类更加接近法律的要求,因此,就理性这个因素,机器人为更加合格的法律主体。

  在肯定了机器人的法律地位后,能否如自然人、法人一样赋予完全的法律人格,这里应承认三者之间存在较大差距,目前自主化机器人应界定为有限的法律人格。法律人格是法律规定享有权利、承担义务的资格,机器人的法律人格有所限制主要有两方面的考量,一方面虽然立法者有权独立进行法律规定,但仍需考虑到民众的声音,“人类自我中心主义”难以接受由人类制造改进的“机器”在法律上与人竟是同等地位,获得相同的权利,并且其自主化究竟会发展到何种程度,我们无法预料,因此为确保机器人的发展和应用在合理稳定的环境中,应认为机器人的法律人格有限。另一方面是从机器人本身出发,机器人的运转模式是以大量的数据为前提,在机器人的权利类型中,应该有获取数据权,机器人获取数据与人类信息泄露相对应,数据是机器人的生存根基,而信息是人类的人格权,二者的冲突意味着机器人并不能享有完全的获取数据权。

  四、自主化机器人的责任

  2015年,瑞士的一个机器人在暗网上购买了摇头丸和一本伪造的匈牙利护照,还有其他东西,后被圣加仑的警察局逮捕,并在三个月后释放。[9]2015年沃尔法承认对无人驾驶汽车对其承担责任,其大胆的宣言表明对技术的完全信任。机器人在广泛推进市场,给社会带来进步的同时,机器人发生的侵权事件引出的责任承担问题让我们喜忧参半。传统的机器人在法律上被认定为产品,在发生侵权事故时,依据现有的责任体系,可在生产者、销售者和使用者之间寻求归责主体。自主化机器人以其高智能化、不可预测性以及超强的学习能力区别于传统的机器人,论证现有的责任体系是否可以游刃有余的包含其所引发的侵权事件,是确定自主化机器人责任承担的关键。

  1、自主化机器人与现有责任体系的“碰撞”

  (1)过错责任。构成过错责任要求主观上具有过错,所谓“主观”就是凭借自己的感情去看待事物,并作结论、决策和行为反应,而不能与其他不同看法的人仔细商讨,称为主观。[10]适用这一原则解决机器人侵权事件,需要认定机器人的主观问题,机器人与人类最大的区别在于缺乏感情,机器人的大脑是通过输入的学习算法,对数据库进行分析整合得出最佳解决方案的运转过程,这一过程如果被认定为“主观”,也就意味着电脑所进行的一切编程活动都是主观化的,将主观的定义扩大到涵盖这种情形,是过于牵强且不合理的。如何认定自主化机器人的“过错”,在算法方面,机器人的算法是透明的,对于科研人员和该领域的专家,不同智能程度的机器人的算法规则是“公开的”;机器人的算法又是不透明的,这针对自主化机器人的深度学习能力而言,在投入实践环境后,机器人的新经历不断改变着内在运算规则,“黑箱”算法是研发人员无法掌控的情况,这种不可预测和难以解释是发生侵权时过错无法认定的主要原因。因此过错责任的适用情形在于有人的因素的介入,例如国外学者建议自动驾驶汽车需配置一名驾驶员,该驾驶员仍需保持高度的注意力,以便及时转换为人工驾驶模式,如果事故的发生为驾驶员的过错,驾驶员需承担责任。

  (2)严格责任。不需要考虑主观和过错,该种归责原则可以合理的认为机器人为责任主体,如上所述,我们论述了赋予自主化机器人权利能力是时代发展的导向,其承担责任也是理所应当,由于机器人还涉及到生产者、销售者、所有人及使用人这些主体,研究他们应否承担责任,是完善机器人责任体系不可逾越的一步。有学者认为,生产者与销售者应承担无过错责任,彼此之间是不真正连带责任,这也与我国《侵权责任法》的规定相符合,理由是:生产者与销售者熟知整体构造,“控制着”核心技术,能够最大程度的控制风险,在交易过程中,生产者与销售者与交易对方相比,是利益的最大获得者,他们有能力承担赔偿金额,并与收益达到平衡,是“最低成本避免者”,因此由生产者和销售者承担责任更容易得到受害者的青睐。除了生产者和销售者,所有人或使用人是对机器人具有最大控制力的主体,根据喜好和生活方式来决定机器人的使用方向,也影响着机器人的责任认定,若设定的是“代理或代表”的行为,就会有替代责任的产生。不同的行为层面,会有不同的责任方式,在侵害后果产生后,所有人或使用人与生产者和销售者共同承担责任,也可能是一种容易被公众接受的解决方案。作为已具备法律主体地位特征的自主化机器人,其独立担责的可能性更值得期待。民事责任中,金钱是损害赔偿的主要方式,机器人若成为归责主体,则需要拥有自己的财产,高智能化的思考模式及操作能力的硬件配套的优势,意味着其可作为合同一方订立合同,更为普遍的应是通过雇佣合同,获取报酬。假设更为严重一些,涉及到刑事和行政,金钱赔偿将处于次要层面,对机器人进行人身控制的可行性以及采取这类限制自由的惩罚措施对于非由血肉组成的个体是否有价值,是支持者与反对者争执的焦点。对此,瑞士的做法是对机器人实施逮捕,情节严重的情况下,可对机器人实施拆解,这并不是毫无意义的做法,机器人已经不仅仅是个机器,它凝结了大量的人力、物力、财力和科研人员的核心研究成果,并且自主化程度越高的机器人蕴含的价值越大,因此分解、销毁这类的惩罚方式有存在的意义。也有学者提出可否采用罗马法中的“缴出赔偿”(noxoededitio)原则(即把机器人交给受害者或其家属处置),[11]当然该种做法有“同态复仇”的嫌疑,未从机器人为独立主体的角度出发,不符合当前机器人的发展现状。立法者在落实“法律人格”带来的责任能力规则时,采取何种方案,需要根据社会发展状况,结合多方面的因素,才能做出抉择。

  2、构建自主化机器人责任体系的建议

  独立责任的前提是独立地位,未来法律中应明确自主化机器人占据主体地位的一席之地,在不改变机器人独立主体资格的前提下,定义为“电子人”或“其他人”均可。在全新的责任体系中,可参照法人和自然人的相关责任承担的规定,在民法和刑法中,或可对应自然人的无、限和完全责任能力的划分,根据机器人自主化程度的高低,程度越高者应为完全责任能力,以此类推,具体的界定标准应依据机器人的内部数据规定在研发项目的登记备案中。在侵权责任法中,增加自主化机器人侵权后应承担赔偿损失、恢复原状等责任,在有机器人相关主体的介入时,根据原有规定,相关主体成为归责主体的一部分;在刑法中,对自然人适用的监禁、思想教育和终结生命等惩罚措施在考量机器人的独特之处后,适度调整以适用于机器人。同时针对机器人发展潜力大,应用范围广的特点,为最大化的保障受害者权益的实现,需要落实相应的社会配套措施。

  (1)强制责任保险。2016年,英国议会提出一份有关无人驾驶汽车法律责任问题的提案,提出将汽车强制险适用扩大到产品责任,在驾驶者将汽车控制权完全交给自动驾驶系统时为其提供保障。[12]保险的目的是有强大资力的保险公司介入,保障受害方及时获得赔偿,减轻车主在巨额赔偿金下的负担,尽快地解决民事纠纷。确定机器人强制责任保险制度,考虑到机器人主体的特殊性,可借鉴机动车强制险,虽然机器人在未来取得财产具有可实现性,但如何获得、获得多少以及具体时间都是模糊不定的。因此主体地位的确定性与责任承担的不确定性,会增加公众的不安全感,为减少这种未知性带来的社会不安情绪,保险公司的加入无疑是一剂强心针。保险费的缴纳,规定为生产者、销售者以及所有人的义务更为适宜,在机器人投入使用前,强制上述主体购买责任险,以较小的经济付出,获得更大的风险保障利益,当然,保险公司可基于机器人自主化程度的高低,划定不同的保险档次,自主化程度越高的机器人,损害事件的发生几率越小,相关主体的责任也就越小,保险费也就越低。

  (2)机器人团体机构。反对机器人在法律上占据一席之地的主要原因是实力对比的差距缩小,自主化机器人可以自由独立的进行社会活动,智能化的发展可能脱离人类掌控并占据世界的主导地位。而法人制度是现在社会普遍的经济发展形式,立法者以“拟制化人格”确立法律主体地位,人类作为机关和成员,实则掌握着法人的运转模式及发展方向。两者对比得出,若建立机器人的相关法律体系,人的参与必不可少。形成机器人团体机构,由人来掌控机器人的大小事务,其中包括责任承担问题。首先可采用法人章程的形式,在团体内部确立责任承担的原则,并对加入该团体的所有机器人有拘束力;其次,机器人需要庞大的资金后备力量,除去研发和社会活动的消耗,赔偿金额也应计算在内,因此可以发展专门管理机器人基金的团体,基金的来源包括投资、捐赠、机器人获得的财产以及机器人受损害获得的赔偿金等,对于强制责任保险尚未涉及的领域,可由赔偿基金进行弥补。多方位赔偿措施的目的,一方面是减轻生产者、销售者和所有者在机器人赔偿责任问题方面的担忧,为科研人员“松绑”,以便专心投入提高机器人智能程度的研究,为机器人的进步提供体系上的保障;另一方面,完善的赔偿机制的建立,是民众无所忧虑的接受机器人的首要步骤。

  (3)体系化的管理。强制责任保险与基金制度大体上填补了受害方的损失,在赔偿金额方面,上述措施可以解除机器人的一部分“威胁”。然而实际操作问题是一大难题,在侵权事故发生后,受害者首先应确定的是侵权主体,不可能存在完全一样的人,却存在完全一样的机器人,为避免这种技术带来的相似性,应授予机器人“身份编号”,外观和内部构造完全一样的机器人因“身份编号”的不同具有识别性,也方便受害者进行对号入座。编号的获得就存在一个人为的管理过程,对机器人进行体系化管理,首先在研发项目开展之前进行审批,筛选出无价值且对社会有潜在危险的项目,以此在源头上减少侵害事件发生几率。其次强制规定机器人投入商用,需进行登记注册,以获得专属编号,该编号同时记录在基金组织中,与基金的赔偿作用相衔接。由于区分机器人差异性的有效手段是其内部数据,因此编号的设置可与数据相结合,体现一定的规律性,在保留机器人特色的同时体现管理的优越性。

  结语

  人工智能学家把人工智能达到人类的智能水平的技术程度称为“奇点”,在“奇点”来临之时,机器人将可通过人工智能进行自我完善,超过人类本身,开启一个新的时代。[14]“奇点”话题高度膨胀,使人们对机器人惴惴不安,从权力谱系方面,机器人更好的诠释了“适者生存、优胜劣汰”的竞争法则。但人类又似乎不必恐慌机器人,从研发目的而言,机器人是为了人类社会服务,改变现有的生活模式,提高生活质量的存在,国家对此是处于保护的态度,鼓励支持发展人工智能,技术中立原则也要求对待机器人要从“非歧视”的角度,目前的问题不是人工智能的威胁力度有多大,而是人类对机器人的眼光需要转换,这是解决恐慌心理的关键。新事物的产生必将给法律带来诸多挑战,机器人的发展潮流不可阻挡,法律本身也将面临着重构。法律主体资格和损害分配原则的确定,是立法者不可回避的问题,当然除去这两方面,还有监管的缺失、相关法律的不同步以及机器人的“上岗”和工人的失业所带来的利益分享问题,都是机器人以“人”的姿态融入社会的障碍。要求法律对机器人做出回应,似乎推翻了法学家关于法律决定人工智能未来的宣言,但谁占据主导地位,最终目的都是实现法律与人工智能的同步发展。

  参考文献
  [1] 吴汉东.人工智能时代的制度安排与法律规制[J].法律科学,2017(05):128~136.
  [2] 司晓,曹建峰.论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点[J].法律科学,2017(05):166~173.
  [3] 张艳.人工智能给法律带来四大挑战[N].社会科学报,2016-08-04(4).

相关内容推荐
相关标签:
返回:法学毕业论文