AI(人工智能)的法律地位分析

人工智能的法律地位问题是目前世界各国研究、争论和亟待解决的问题:人工智能创作物著作权归属问题、人工智能侵权责任问题等均是需要明确其法律地位之后方能解决。从国际国内人工智能发展状况来看,按主客体和权利义务关系以及法律责任等问题对人工智能将会涵

  前言

  人工智能(Artificial Intelligence,简称AI),这一概念由X达特矛斯学院的麦卡锡、明斯基等科学家在1956年首次提出。进入21世纪后,依托于大数据又借生物神经元作为纽带的人工智能真正的实现了超越人类智慧的预想。AlphaGo战胜棋王柯洁、IBM的沃森在比赛中获胜等无一不宣告着人工智能在技术层面所取得的巨大成功,并让机器人类这一说法得以催生。在人工智能不断开发与运用的今天,其技术被广泛运用于指纹识别、智能识别、智能搜索和专家系统等各个领域。同时也引发了伦理学、哲学、法学等一系列领域的争论,现实生活中人工智能技术引发的法律问题已然层出不穷。从技术层面加以探讨,人工智能可以分为两种类型:弱人工智能和强人工智能。弱人工智能是不具有自主意识的人工智能形式,缺乏思维能力和认识能力。其活动严格限制于预先设计的程序,处于人类的支配控制之下,因而弱人工智能并不能称之为真正意义上的智能。强人工智能则定义为已经具备与人类思维相当的认知、可以进行决策活动且拥有一定程度上的自我意识的人工智能形式。[周大鹏:《人工智能法律地位研究》,武汉大学硕士研究生毕业论文。2019年答辩.第8页。]人工智能技术所展现出的对生活的影响已经不可忽视,运用层面的问题亦屡见不鲜。不同领域内对人工智能的研究与探索从未停歇,但是无论是理论还是实践,强人工智能的法律地位目前依然是一个需要填补的法律空白,大量的人工智能技术引发的问题也尚未觅得妥当处理方式。2017年由xxxx印发的《关于新一代人工智能发展规划的通知》[详见:2017年xxxx《关于新一代人工智能发展规划的通知》。]中明确将“建立人工智能法律法规、伦理规范和政策体系”写进了我国发展战略目标之中,为牢牢把握战略主动,从国家战略层面系统布局人工智能的发展,我们要加强人工智能法律法规的研究,明确其相关权利、义务以及责任,从而有效解决人工智能技术在运用中所引发的纷繁复杂之矛盾、推动人工智能技术的深层次发展,同时也能为加快我国实现创新型国家和科技强国夯实基础。

  一、人工智能法律定位存在的问题

  人工智能不断深入发展所引发出的法律问题是纷繁复杂的,要解决这些问题的前提应当是明确人工智能的法律地位,即能否赋予机器人作为法律上的“人”的资格?简言之,首先需要探讨的是在法律关系中,机器人究竟应当视为主体还是客体?是简单地等同于普通机器或动物,还是视其为“人”?[蔡小红:《论人工智能的法律地位》,《西部学刊》2019年第95期。]智能革命的出现是一场前所未有的危机和挑战,因为它带来的问题涉及伦理标准、法律规则、社会秩序及公共管理体制之间的考量。不仅与当下法律秩序形成冲突,显露出法律滞后性带来的部分缺陷,甚至为现有法律认知带来天翻地覆的改变。[吴汉东:《人工智能时代的制度安排与法律规制》,《法学科学》(西北政法大学学报)2017年第5期。]随着科技的发展、人工智能技术的完善,人工智能的行为有了一定的自主性,在著作权归属问题、自动驾驶汽车事故问题以及人工智能侵权问题等产生了一系列问题,而解决问题的首要步骤就是明确其法律地位。

  (一)人工智能的法律地位不明

  由前所述,人工智能法律地位的不明确本质上还是由于法律人格概念不明所致。人工智能在一定程度上具有某些类人的特性:它使用“神经网络”,拥有深度的自主学习能力。据此人工智能能否被赋予一定的人的权利?如果回答是否定的,人工智能技术的法律主体地位、法律地位作何界定?目前法律所构建的人权及人权伦理体系规制是否可以适用于人工智能?如果可以,那么其法律地位是否于人类一样?人权是一切利益和权利的前提和基础,独立于当事人的国家归属、社会地位与行为能力,是作为个体的人对于自己基本利益的要求与主张。如果赋予人工智能与人类完全相当的法律地位,如此一来机器人可以通过行使婚姻权与人类结为配偶,稍加思索不难发现这必然导致人类数千年来赖以生存的伦理社会崩塌及法律体系逻辑的重构。

  (二)人工智能的具体规则缺失

  沙特阿拉伯给予智能机器人“索菲亚”公民身份,但是这是个特例,相关法律法规并未据此跟进,人工智能尚未以此作为规则标准获得法律上的主体资格。历史上第一部由人工智能创作的诗集《阳光失了玻璃窗》由微软“小冰”创作并出版,伴随出现的是一个不得不去思考的问题——人工智能创作物是否享有著作权?短期内,我们思索的焦点落是谁控制人工智能上,但是长久发展来看,关键问题在于人类还能否加诸任何控制于人工智能?人工智能的运用与发展要求法律尽快制定出能够明确其法律人格的规则。从现实的发展情况来看,人工智能技术的飞速发展并没有现有规制可以有效规制。[袁曾:《人工智能有限人格审视》,《东方法学》2017年第7期。]持“主体说”的学者们虽然认为人工智能享有权利,但权利设定后能否行使、怎么行使诉求等也没有给出详细的标准。目前,人工智能是否能够主张权利尚未可知,虽然部分学者以沙特阿拉伯给予“索菲亚”公民身份这一案例视作理论支撑,但是这实际上是夸大了人工智能的客观情况。具有公民身份的“索菲亚”无法对自己的公民身份与产品做出区分,且在遭受损害之后,依然无法主张权利。

  (三)人工智能的责任归属不明

  解决人工智能的法律地位问题最重要的是要解决其责任分配问题。在现有的制度下很难预估出某项人工智能技术可能带来的隐患,单个责任主体也很难承担得起人工智能技术因侵权等所带来的责任。我国首例自动驾驶车辆所造成的驾驶员死亡案例于2016年发生在京港澳高速,正在作业的道路清扫车被一辆中定速状态的特斯拉轿车径直撞上,损失触目惊心,特斯拉轿车当场损坏,而司机亦不幸身亡。经鉴定,事故前该车处于自动驾驶模式。无独有偶,突发故障的机器人“小胖”在深圳举办的国际高新技术成果交易会上砸坏展台且砸伤了一名游客,这一行为并无任何指令。这两个案例均昭示着一个极具讨论价值且应当得到解决的问题:在人工智能的具体行为超出了程序控制的情况下发生侵权,责任到底是由谁承担?是所有者、使用者还是软件研发者?学界所担忧的问题还包括人工智能的权利及侵权责任主体等关键问题上有较大缺位、人工智能发展程度过高存在着反制人类的可能性。随着科技的飞速进步,人工智能在技术上的突破是可预见的趋势,缺少的仅只是时间。然而人工智能法律人格在现行法律规制与价值观念中依旧处于含混不清的状态,缺乏责任制度的保障。

  二、人工智能法律地位的学理争议

  法律关系主体的权利与义务的实际状态,是谓法律地位。[参见百度百科:主体地位的含义,2020年4月6日22:00访问。]在这一层面上需要明确人工智能在法律上应当视为主体或是客体。主客体二分法是目前民法理论的基本支柱,简而言之,是人与物的区分。在这个理论下,人与物区分的关键点在于人有精神、有意识。一个对象不可能成为主体与客体之间的中间状态,要么归之于人,要么归之于物。笔者认为讨论人工智能的法律地位,首先应当着眼于是否具备主体资格。主体资格,是指符合法律逻辑中的“人”,在法律关系中享有权利、承担义务及责任。当人工智能的出现昭示“精神、意识”不再只是人类所独有,那么主客体之间本来明确的界限也可能陷入含混。高度自主的人工智能,逐步显现出脱离人类控制的趋势。据此来看,具有“精神、意识”的人工智能处于一个什么样的法律主体地位是一个现实问题。人工智能技术的确取得了巨大进步,能够进行一些自主选择,以此打破人物二分法的私法格局赋予人工智主体地位可行吗?学界主要有以下两种观点:

  (一)主体说

  一些法学研究者认为,科学技术的进步让人工智能形成与人类相似的“自我意识”成为可能,且能参与、渗透社会生活。因此,在法律上确立人工智能主体地位,明确其权利义务的界限和范围,符合国家对于明确人工智能法律主体地位的指导理念,也是社会发展的最终趋势。[马长山:《智能互联网时代的法律变革》,《法学研究》,2018第4期。]但不同的学者对赋予人工智能什么法律人格以及其法律人格是否应受到限制等观点不尽相同,其主要包电子人格说、有限人格说括和拟制人格说。电子人格说和拟制人格说在本质上是一致的,在认定方法上基本一样,都从法律主体的发展来论证法律主体的涵盖范围呈扩大趋势。但是拟制人格说更侧重于解决责任承担问题,[杨清望,张磊:《论人工智能的拟制法律人格》,《湖南科技大学学报》(社会科学版)2018第5期。]电子人格说则注重于随着人工智能自主程度提高,单纯的工具性可能会更加小,所以可以通过赋予人工智能人格拟制和电子人格等方法赋予人工智能法律主体资格。这些理论主张主要依托于“人工智能发展论”、“有限人格论”和“法律人格扩展论”三类论据,[韩旭至:《人工智能法律主体批判》,《安徽大学学报》(哲学社会科学版)2019年第4期。]试图在法律社会的实际需要、人格理论发展以及制度设计的可行性三个层面来证成人工智能的法律主体地位,从而形成并支撑主体说这一理论。

  (二)客体说

  持“客体说”的学者认为,首先,人类创造出来的人工智能原初地位是物,创新地赋予其在法律上主体地位将使得人工智能本身陷入一个无所适从的状态,同时也是对现有法律体系的颠覆。现在的人工智能技术也远没有达到需要通过法理去分析、判断是否该当于法律主体的规定条件,这样的问题尚需自然科学的进一步突破。把人工智能设定为法律主体无疑是对现有法律主体理论和制度一种推翻重建。人工智能是社会科学的新领域,需要通过明确的法律规制以及伦理约束来引导其发展。如果赋予人工智能主体资格,既会导致法学理论制度以及社会关系陷入混乱状态,也暗示着对人工智能发展的引导选择了放弃。
  其次,人工智能虽然在一定程度上高度发展,具有一定的自主性,但远未及“理性、意识”的标准,何谈赋予其人格。现代法关于主体的界定有深厚的法哲学基础和法理根据,建立在德国古典哲学对人的本质的深刻认识基础之上。[刘洪华:《论人工智能的法律地位》,《政治与法律》2019年第1期。]此外,当前人工智能技术仍然停留在弱人工智能的阶段,研究者也无法对人工智能是否最终能成为“类人”做出准确判断。况且,强人工智能即使出现也只是人类意志的延伸,只能为人类服务而不应该作为与人类相同或者类似的地位参与社会活动。
  学者杨易川等人认为“主客体二分法”是传统的法学研究的理论基础,核心在以人类发展为目的。人有与物完全相反的最高地位,人以外的一切皆以人的需求为导向而设立。法律制度建立遵循的最核心原则是“人类中心主义”原则,法律人格也是基于此发生着历史的演变,因此主体说有悖于“人类中心主义”原则,[杨易川、李娜:《主客体二分法视角下人工智能法律主体地位之否定》,《重庆理工大学学报》(社会科学)2019年第33卷第11期。]人工智能作为法律主体也有悖于社会发展规律。
AI(人工智能)的法律地位分析

  三、人工智能法律地位的分析

  (一)人工智能主体地位学说的局限性

  人工智能说到底还是机器,区别于具有生命的自然人,亦不同于作为自然人集合体并拥有自己意志的法人,将其作为拟制之人或者电子人以享有法律主体资格,在法理上犹待商榷。[吴汉东:《人工智能时代的制度安排与法律规制》,《法学科学》(西北政法大学学报)2017年第5期]人工智能享有法律上的主体地位本身存在极大局限性。
  首先,人工智能不能等于自然人获得一样的主体地位。自然人归根结底仍然落在具体的人身上,其内涵或扩展都无法涵盖人工智能。人工智能与自然人不同,人工智能没有理性和意志,在紧急情况下通过综合分析仍然无法获得最佳选择。另外,人工智能的主体地位只能形式上解决责任承担问题,但并未解决根本问题。人工智能归根结底其并不具备与自然人相当的责任能力,主体学说规定由其财产来承担责任,但是人工智能如何拥有及控制财产等均在法律目前依然留下大量空白,[杨易川、李娜:《主客体二分法视角下人工智能法律主体地位之否定》《重庆理工大学学报》(社会科学)2019年第33卷第11期。]并且为应当承担责任的人提供了逃避的法律依据。
  其次,人工智能不能与法人的人格主体设置相提并论,不能类比法人建立拟制人格。法人制度是建立在人的基础上的,不能与背后的自然人分离。团体法人成为拟制主体是一个漫长的发展过程,是多重因素作用后的结果,其中的实质性要素和价值要素等是人工智能难以具备的,[刘洪华:《论人工智能的法律地位》,《政治与法律》2019年第1期主题研讨。]因而获得类似法人的拟制资格并不可行。并且,不论有形的或是无形的人工智能,其存在形式都不具备客观的元素,因为它们都不呈现团体或组织的形式。此外,在拥有和处分财产问题上,法人对其财产处于独立控制地位,成员的出资亦或国家的拨付的财产来源都不会影响法人的财产最终归属于一个集团,而非其中一人或多个成员所有;法人的意志产生于群体成员的共同意志,却又独立于个体意志。由此可见,法人亦存在意志,并且基于团体中的自然人,才使得法人主体地位具备了合法性与正当性。人工智能至多只能享有类似处置或者占有的能力,却不能拥有财产的所有权,也不能从财产中受益;且很难像法人那样体现其背后自然人的意志,意味人工智能自然不能与法人并论。
  最后,在知识产权方面赋予机器权利没有任何意义。知识产权制度的总体目标是通过授予创造者排他权来诱导创新,而机器无需授予排他权以激励其进行创造。创新不需要激励则无保护的必要。因此可见,赋予人工智能主体地位在解决人工智能创作作品所有权归属问题中并没有任何实际意义。以袁曾等人为代表的“有限人格理论”认为可以同时建立相关的保险和信托基金系统、人类监督系统等实际上表明了没有必要赋予人工智能法律主体地位。

  (二)人工智能客体地位的合理性

  人工智能在法律领域中的法律地位研究和讨论旨在解决作为科技飞速发展下的人工智能规制问题。把人工智能当为法律主体是人类打破常规的尝试,但却难以自圆其说,且还可能导致伦理社会的崩塌、将法律制度推向困境。从现有技术和法律体系的发展前景来看,唯有将人工智能定位为法律地位中的客体,方能衡平人工智能在应用方面和监管层面的多重目标,才能够维护目前拥有深厚理论基础的法律制度的平稳运行以及良性引导人工智能的发展。
  1.客体定位能促进人工智能良性发展
  首先,确定人工智能为法律客体地位可以使人工智能在人类法律制度的规范下良性发展,并促进社会和谐。人类的理性让人类能以建立以人类行为为中心的法律规范体系,且有能力遵守自己制定的法律。人工智能不具理性这一基础,不可能理解人类法律,更谈不上利用法律,因为始其出现就不可能与人类形成共同的实践理性。即使配备法律程序的人工智能也纯粹出于被动地遵循指令的状态,其行为发生于人类主动嵌入法律程序,而非人工智能基于所面临的问题自觉选择。这样意味着在法律上判断行为者的主观意志对于人工智能无效。如此一来,侵权、违法还是犯罪的识别的固有规则在人工智能来做盘的时必然坠入困局,甚至基于某些人单方面的意愿,将人工智能作为法律实践中的“伪主体”加以利用。若赋予人工智能的是法律客体地位,则仅需规范人类的行为,即本质上是通过对人类行为的规制达到对人工智能进行规制的目的。通过对人类行为的限制去严格限制人工智能可能出现的滥用及不可控情况,才能从根本上将人工智能置于人类法律目前搭建的规则体系下并受到相应的保护。人工智能的类型及性能不胜枚举,人工智能产品在性能上的突破性变化是一种大趋势,把人工智能的法律主体地位限制在客体之下,解决了人工智能进行分类规制的问题,自然地将其纳入现有法律规则之下。对于未来科技可能出现的强人工智能产品,仅需要考虑其分类问题,依照其具备的特殊性建立针对性法规加以规制即可。
  其次,人工智能处于客体地位才能发挥其为人类服务的智能工具价值。将来,人工智能可能会再造人工智能,工具的使用手段、程度和方式得到颠覆式革新,可以替代目前必须由人类完成的工作。但是,无论人工智能发展到什么阶段,其初始行为的触发点依然是人类行为,随后的连锁式触发可能是人工智能完成,而无需人类的参与。人类是设定人工智能的开启者,以实现人工智能为人类服务的目标。这是人类创造人工智能的目的,也是客观事实。人工智能不管发展到什么程度都无法改变其是人类创造的用于改变世界的智能工具。尽管由于其“智能”而具有一定的自主行为,但人类的最终目标决定了人工智能的行为模式。这与法律客体的定位完全一致:一切都以人为本,一切都以人中心。创造人工智能必须满足人类多样性的价值追求并满足人类的需求,科技只是人类社会的手段,人类的全面发展才是我们的目标。维护人类社会的稳定发展是法律的最初和最终目标。将人工智能定义为法律客体更好地发挥了其智能工具的使用价值,也消除了人类对其“反人类”前景的担忧。
  2.客体定位有利于人工智能法律规制
  法律是人类社会规范体系的重要组成部分,它具有定纷止争、调整人类社会正常运行的作用。法律制度和社会制度存续并正常运转的前提是稳定性和可预测性。虽然人工智能具有各种各样的外观形式,例如智能汽车,智能机器人和智能程序等,未来可能还会有新的形式出现,但是它的内在本质仍然是人类社会利用的工具,属于法律关系的客体。不可否认,人工智能已经成为当今社会发展不可替代的一部分,我们可以在关注其“智能”的基础上来调整法律的一些适用规则,使之适应人工智能引起的相关法律问题。为了维护人工智能正常发展,达到其为人类服务的目的,应当在“客体二分法”的理论下探讨人工智能的法律地位。赋予人工智能的法律主体地位误解了其“智能”特征,将其人为地归类为法律主体不但不能从根本上解决责任问题,而且会导致对人类法律制度的颠覆。反之,将人工智能定位为客体,一方面可以在现有的法律规范下进行一定的变通适用,以解决当前亟待解决的人工智能引发的问题。另一方面,客体定位在应对未来强人工智能甚至超人工智能的法律规制上提供了良好的指引,是以人工智能工具性价值为基础从而实现法律规制的最佳定位。

  四、人工智能法律地位的确认与规范

  xxxx于2017年颁布《关于新一代人工智能发展规划的通知》,在国家战略层面主动指引人工智能发展,从中看得出国家对人工智能发展的重视。笔者认为,把人工智能确定为主体地位(不管是类比法人确认拟制主体还是有限主体),均不能解决人工智能发展所带来的一系列问题,也不能自圆其说。法律的前瞻性也要有一定的理论基础和可行性才能超越当前制度提出新的策略。人工智能在不断发展中虽然不是作为主体的地位,但是其因为其高度“智能”而区别于其他普通客体。为了正确良性引导人工智能的发展并确保我国战略制高点不会在新革命进程中遭受影响,极有必要加快对相关法律法规如《人工智能发展法》的制定。要明确人工智能发展的规范及相关规则,首先需要确定人工智能的法律地位,明确其权利和义务的界限;其次,确定人工智能的侵权责任、著作权归属和隐私保护和等方面的相关规则,明确争议解决方法和规则原则;最后,有必要在各个方面确定有效的监管规则,通过特定规则标准,并优化法律在人工智能监督和引导中的作用。

  (一)明确人工智能客体地位

  通过立法形式明确人工智能的客体地位,制定特殊的法律规范来规制人工智能的有效发展。此外,在制定相关法律的时候还应该包含保留条款,以适应快速发展的人工智能技术,同时确保在法律生效之前的人工智能项目不被追溯,以免发生混乱情况。
  人工智能既然应当作为客体地位参与社会活动,那么必然要涉及设计者、所有者以及使用者的责任分配问题。首先,依照产品侵权目前所适用的无过错责任原则,可以认为人工智能的设计者亦应当承担与前款所谈相当的责任。然而考虑到人工智能是目前最前沿的标志性技术之一,这种归责原则无疑对不懈钻研的程序员带来过多责任压力,导致权力与义务的不对等。法律责任的加重势必把恐惧推向程序员,研发信心的不足将会阻碍人工智能技术的进步和发展。因此制定一定的免责条款有其必要性,如“限于科技水平不能在研发设计时及完成时发现设计可能造成损害的,研发设计者可免除责任”等。[冯春燕、郭娅妮、侯静文:《强人工智能产品转而探析》,《法制博览》2019年第6期。]其次,在理论层面讲人工智能视为特殊物的话,生产者和销售者基于《产品质量法》有关规定,同样的按照无过错责任承担责任。最后,过错责任制度也应当搭建在人工智能的所有权人及实际使用人之间,如若未尽善良管理者的注意义务,亦或存在放任、利用人工智能侵权的行为,那么责任毫无疑问应由过错方承担。此外,人工智能本身具备的前沿技术性,其精密度远高于现有日常生活水平中的任意一项物件,产品维护者的合理提醒和主动告知风险等义务也应增加。但是人工智能技术的领先地位会导致行业标准的统一制定存在难度,研发者和生产者在创造过程中可能承担不必要的风险,有加重责任的可能。为了良性引导科技的进步,在一定范围内使用过错原则来进行责任的分担,让研发者与生产者只需要承担现有技术下因为过错产生的产品责任,可以保障普通使用者的相应权利的同时不至于因法律法规的限制阻碍高新技术进步,在责任与权利之间找到平衡。

  (二)明确人工智能发展的具体规则

  明确人工智能客体地位后,应当确定其发展的具体规则,加强监管。在这一阶段,就需要更多地考量人工智能的安全监管或是其异化后等共性问题如何解决,应在人工智能的道德与法律两个维度同时进行合作研究。人工智能领域的领军者埃隆马斯克说过,XX对于人工智能的介入是应当且必要的。[黄勇民等:《从区际惯例到区际协定:对台渔工权益救济模式之法律定性—兼议两岸渔工协议实施的司法保障》,《中国海商法研究》2015年第3期
  ]无论是国家层面,亦或是国际层面,监管与规范都是人工智能领域不能回避的,否则难免会踏入“人工智能悲剧”的困境。一旦XX在监督上不作为,人工智能势必给普通公众带来极为强烈的危机感,甚至使得人工智能无序发展。因此,XX的介入可以使得法律规则匹配上科技进步,并将人工智能发展纳入监管范围,使得相关规则得以明晰。
  首先,人工智能责任体系的完善有赖于强制力的保障,必然需要建立一个能够承担监督责任的机构,这是立法者不容推卸的责任。人工智能的本质是人类意志的延伸,是科技发展进步造就的有力工具,其发展的首要原则是以人类需求为导向,这也是建立人工智能监管总体框架的指导原则。因此在确定人工智能的一般原则时,人权与人类利益必须置于首位,进而明确相关机构的监管职能。其次,人工智能项目的高度集成和高开发难度,其通常是许多科研团队合作的结果,使得XX难以预见或了解。因而事前备案、事中授权、事后惩处等相结合的手段更适合人工智能领域。事前监管应当采用申报的方式,即人工智能在设计与建造开始之时,开发者和设计者应向行业主管部门进行申请备案,承诺在维护人类利益的前提下合法开发,并且不使用人工智能进行违法犯罪活动。此时不用彻底评估人工智能的算法、编程等技术性数据,只要企业或团队将人工智能技术的产品研发计划、产品质量评估证书、及其他明示的性材料准备齐全,主管机关就可以依法批复。一旦人工智能的危害侵权行为发生,相关监管机构便可追责,特别是对于违反“人类利益为导向”原则的企业或个人,加大惩罚力度以促进自律与发展。有关机关还可以通过已经发生的事件强化人工智能产品安全监督和评估体系,通过事后惩戒来反向构建人工智能安全监测预警机制。

  (三)引入人工智能强制责任保险制度

  当前,虽然人工智能缺乏制度保障而又快速发展,但是我们可以在明确其客体地位之后,在投入使用之前,为人工智能强制投保责任险,明确人工智能在侵权损害等方面的责任归属。从而以相对更小的经济支出,获得规避风险的机会,极大地减少人工智能在多方面的经济赔偿纠纷,从而促进人工智能行业的良性发展。学者袁曾等人也提出该保险制度,但是笔者认为该制度应当是建立在人工智能客体地位而非主体地位的基础上设立,以特殊规制的形式保障特殊客体人工智能的发展。
  数据网络平民化的时代,稍有风波舆论就有哗然的可能。因而独自应对人工智能带来的责任风险是单一的国家或部门都无法做到的事情,完全摘自传统监管方式的产品许可制度、产品侵权责任等规则未必能应对新科技产业所引发的一系列问题。事前监管措施亦有缺漏之处:在大数据时代的背景之下,研究是分散的,人人都具备制造人工智能的可能性。想要通过事前监管来规避风险发生的概率是难以做到的。因此可以参照交通事故责任的规定,用强制投保来规避风险。英国议会早在2016年时便有相关领域的提案可供参考,其在无人驾驶汽车的法律责任界定上,扩大了汽车强制险的适用范围,产品责任也可囊括其中,[参见宋云霞等:《海上丝绸之路安全保障法律问题研究》,《中国海商法研究》2015年第2期。]这样就可以通过《消费者保护法》相关的裁判规则进行责任主体的确定。如此一来,人们在把驾驶交给自驾系统时多了一重保障。为人工智能责任分配提供了降低危险的可能,也为当前人工智能技术的发展提供了一定责任归属指引。

  致谢

  时光如梭,从入学到现在转眼已经接近四个年头了,在我的论文写到这里,也即将宣告了我的大学生活准备走到尽头。这四年的大学生活,是我人生中最重要的时期之一。我在这里提升了自己的学历,更在知识的海洋里畅游了一番。毕业在即,我心中感慨万分,我由衷地感谢我在大学里认识的每一个老师、每一个同学,尤其是我的导师。由于今年受疫情的影响,直到四月份我们都未能返校,这对于自己在家完成实习以及毕业论文来讲,我确实感觉有点吃力。因为不怎么坚实的理论基础和专业视角,在毕业论文的写作过程中更是困难重重。但是我幸运地得到了我的导师的督促和指导,在整个论文的准备和写作过程中,导师都是亲力亲为地给我指导并提出修改建议。虽然是在疫情的这样一个特殊情况,老师她在家既要上课还要给我们批改论文,但是她效率特别高,而且指导得特别细致。在此,我向老师致以最真挚的感激和致敬。同时,也祝愿她今后身体健康,万事如意。

  参考文献

  (1)华宇元典法律人工智能研究院编著:《让法律人读懂人工智能》,法律出版社2019年版。
  (2)周大鹏:《人工智能法律地位研究》,武汉大学硕士研究生毕业论文。
  (3)蔡小红:《论人工智能的法律地位》,《西部学刊》2019年第95期。
  (4)吴汉东:《人工智能时代的制度安排与法律规制》,《法学科学》(西北政法大学学报)2017年第5期。
  (5)甘绍平:《人权伦理学》,中国发展出版社2009年版。
  (6)马长山:《智能互联网时代的法律变革》,《法学研究》,2018第4期。
  (7)杨清望,张磊:《论人工智能的拟制法律人格》,《湖南科技大学学报》(社会科学版)2018年第5期。
  (8)韩旭至:《人工智能法律主体批判》,《安徽大学学报》(哲学社会科学版)2019年第4期。
  (9)刘洪华:《论人工智能的法律地位》,《政治与法律》2019年第1期。
  (10)杨易川、李娜:《主客体二分法视角下人工智能法律主体地位之否定》,《重庆理工大学学报》(社会科学)2019年第33卷第11期。
  (11)吴汉东:《人工智能时代的制度安排与法律规制》,《法学科学》(西北政法大学学报)2017年第5期
  (12)刘洪华:《论人工智能的法律地位》,《政治与法律》2019年第1期主题研讨。
  (13)杨易川、李娜:《主客体二分法视角下人工智能法律主体地位之否定》《重庆理工大学学报》(社会科学)2019年第33卷第11期。
  (14)袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第7期。
  (15)林德宏:《科技哲学十五讲》,北京大学出版社2004年版。
  (16)冯春燕、郭娅妮、侯静文:《强人工智能产品转而探析》,《法制博览》2019年第6期。
  (17)宋云霞等:《海上丝绸之路安全保障法律问题研究》,《中国海商法研究》2015年第2期。
  (18)黄勇民等:《从区际惯例到区际协定:对台渔工权益救济模式之法律定性—兼议两岸渔工协议实施的司法保障》,《中国海商法研究》2015年第3期。
  (19)王利明:《人工智能时代对民法学的新挑战》,《东方法学》2018年第3期。
  (20)龙文懋:《人工智能法律主体地位的法哲学思考》,《法律科学》2018年第5期。
下载提示:

1、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“文章版权申述”(推荐),也可以打举报电话:18735597641(电话支持时间:9:00-18:30)。

2、网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。

3、本站所有内容均由合作方或网友投稿,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务。

原创文章,作者:写文章小能手,如若转载,请注明出处:https://www.447766.cn/chachong/14898.html,

Like (0)
写文章小能手的头像写文章小能手游客
Previous 2021年10月29日
Next 2021年11月11日

相关推荐

My title page contents