人工智能侵权责任研究(人工智能引发的侵权责任问题目前解决方案)
人工智能侵权责任是如何认定的
人工智能应用范围的日益普及,其引发的侵权责任认定和承担问题,是对现行侵权法律制度提出的又一个新的挑战。
“从现行法律上看,侵权责任主体只能是民事主体,人工智能本身还难以成为新的侵权责任主体。即便如此,人工智能侵权责任的认定也面临诸多现实难题。”在清华大学法学院教授程啸看来,侵权发生后,谁是人工智能的所有者,就应当由谁负责,在法律上似乎并不存在争议。“然而人工智能的具体行为受程序控制,发生侵权时,到底是由所有者还是软件研发者担责,值得商榷。”
与之类似的,当无人驾驶汽车造成他人损害侵权时,是由驾驶人、机动车所有人担责,还是由汽车制造商、自动驾驶技术开发者担责?法律是否有必要为无人驾驶汽车制定专门的侵权责任规则?这些问题都值得进一步研究。
“现实中,人工智能侵权责任的归责原则,可能更多涉及危险责任或无过错责任。”程啸认为,例如无人驾驶汽车致害,无论从产品责任还是机动车交通事故责任上看,都可以适用无过错责任。但未来需要考虑的是,人工智能技术的运用,其本身是否属于高度危险作业(如无人机),从而决定了是否适用高度危险作业致害责任。
“当前,人工智能侵权责任中的因果关系、过错等要件的判断也变得日趋复杂。”程啸还举例说,此前曝光的一些APP“大数据杀熟”和“算法歧视”,由于代码的不透明,加之算法本身的自我学习和适应能力,使得“将算法歧视归责于开发者”变得很困难。
从L2到L3级,挡在自动驾驶跨级之间的究竟是什么?
近段时间,随着长安UNI-T、广汽新能源Aion LX、奥迪A8L等的推出,诸多品牌宣布旗下车型已经能够应用L3级自动驾驶技术,但由于法律法规的尚未成熟,各套顶尖的自动驾驶技术只能以“阉割版”的形式出现在目前的在售车型上。
“L2级汽车自动驾驶辅助系统,在某些情况下可以控制转向和制动、加速。人类驾驶员必须一直监控驾驶环境,并执行与驾驶相关的其他任务;L3级汽车自动驾驶系统,可以在某些情况下执行所有驾驶任务。在这些时候,人类司机必须在自动驾驶系统的要求下做好夺回控制权的准备。”
从L2级自动驾驶技术与L3级自动驾驶技术的界定上不难看出,L3级的关键点在于“执行所有任务”。但在《中华人民共和国公路法》《中华人民共和国道路交通安全法》《中华人民共和国道路交通安全法实施条例》等法律法规中,许多适用于传统汽车的规定则不适用于L3级自动驾驶。
例如,《道路交通安全法实施条例(2017)》第62条规定驾驶员不得有“拨打接听手持电话、观看电视等妨碍安全驾驶的行为”,也不得“连续驾驶机动车超过4小时未停车休息”。但对于L3级自动驾驶车辆的“人类驾驶员”而言,接听电话、观看电视并不会妨碍驾驶安全。
换句话说,除去自动驾驶相关设施的建设外,我国现阶段的相关法律法规仍无法匹配高度智能的L3级自动驾驶技术。但从国际角度来看,目前已经有多国对自动驾驶技术出台了多项法案,并放宽了自动驾驶技术的测试权以及应用场景。那么,这些法案对我国的自动驾驶法律法规制定是否有借鉴意义?自动驾驶相关法规的背后究竟还存在哪些问题?
01 自动驾驶法律框架的“国际成熟度”
从时间线上来看,2016年3月,联合国对于《维也纳公约(道路交通)》中自动驾驶汽车的修正案正式生效,其中明确:在符合联合国车辆管理条例或者符合自动驾驶的情况下,自动驾驶技术可以被应用到交通运输当中。这一规则修改相当于承认了自动驾驶的合法身份,《维也纳公约》的修订也为先进驾驶辅助系统及自动驾驶技术的应用消除了法规障碍。
随后,美国政府于同年出台了《联邦自动驾驶汽车政策》,这对于自动驾驶汽车的发展具有里程碑的意义。该政策鼓励各州允许其独立监管高度自动化驾驶机动车(HAV)技术的应用和性能方面的标准制定。
据不完全统计,截至目前,美国有23个州出台了关于自动驾驶的53部法案。2016年底,密歇根州通过的最新法案不仅承认自动驾驶的合法性,还允许传统车企和科技型公司在州内的任何路段开展车辆共享等商业运营服务。同时,如果自动驾驶车辆通过该州的测试和认证,是被允许出售给消费者的。这一法案旨在促进州内企业智能汽车的研究和开发工作。
2017年7月27日,美国众议院一致通过两党法案《自动驾驶法案》(Self Drive Act),将首次对自动驾驶汽车的生产、测试和发布进行管理。此部法案或将是美国第一部加速自动驾驶车辆上市的美国联邦法律,具有标杆性的价值和意义。
除了美国外,欧盟也于同期发布与自动驾驶相关的法案。2017年5月,德国联邦参议院发布法案,允许自动驾驶汽车在公共道路上测试,在自动驾驶车辆可以自行操控转向盘以及制动的情况下,驾驶员可以手离转向盘,上网、浏览邮件皆被允许。
可以看到,在欧美各汽车大国中,自动驾驶的法律框架已经达到了一定的成熟度,关于测试车、商业运营、消费者使用等方面均进行了详细阐述。
02? 自动驾驶立法的“四大关键项”
综合美国、欧盟等地对智能汽车自动驾驶技术的立法进程,可以清晰地看到,智能汽车与自动驾驶技术的立法要着眼于4项关键制度的确立,分别为道路测试制度、保险金制度、运行报告制度和信息安全制度。
1.道路测试制度。智能汽车在测试过程中,对道路的选择及道路设施的搭建应有法律法规进行相关规定的支撑,以保证测试过程的有序开展和顺利进行。该制度应要求测试道路的条件可以满足智能汽车基本场景的测试,如车道内直线行驶、变更车道、超车、自动紧急制动以及红灯时停车等情景。在道路测试过程中,应及时记录车辆工况、车辆V2V与V2I的交互等情况,根据以上数据,进一步进行智能汽车的改进工作。
2.保险金制度。自动驾驶的事故责任界定一直都是立法的难点,因此会导致赔偿迟滞,车险方面的难题阻碍着智能汽车的发展。保险规则要首先解决受害者的赔偿问题。智能汽车在自动驾驶模式下发生事故后,受害者将在第一时间获得保险公司的赔偿,随后再解决责任归属问题。公司可以向具体的事故责任方要求相应的损失赔偿。这既不会因为责任人难以确定而无法归属法律责任,又不会因为法律责任过多而打击研发者与消费者的积极性。
3.运行报告制度。车辆管理部门对智能汽车运行状况进行监管,确保车辆、车内外人员的安全,决定着智能汽车的发展与革新。基于此,车辆运行报告制度成为立法的关键条目之一。当车辆发生事故时,不论该事故是否导致财产损失和人员伤亡,测试方必须将事故发生的时间、地点及原因等相关情况向管理部门报告。测试方须向车辆管理部门上交年度总结。
4.信息安全制度。智能汽车技术的发展需要汽车与互联网行业的跨界融合。在智能汽车实际运行中,需要汽车行业与互联网行业深入合作,共同防范潜在的安全威胁。同时,相关的法律可以在车辆的基础安防措施检测中进行规划,检查车辆是否使用一些规范的预定义安全编码。
当然,除了“四大关键项”外,即便自动驾驶的法律框架已经构建,但在框架的“地基”部分则是人类长久以来形成的“伦理道德准则”,这也是自动驾驶在立法进程中的另一大痛点。
03? 自动驾驶之“伦理道德论”
AI(人工智能)作为自动驾驶的技术主线,其在不断刷新人类对物理世界的认知和社会关系的同时,所延伸出的伦理问题挑战着人类长久以来所建成的道德体系。
清华大学车辆与运载学院院长杨殿阁表示:“今天的交通法规看似是现代建立的,但实际上其背后有着上千年历史的传统道德准则作支撑。”由此可见,自动驾驶立法难就难在要打破传统道德体系束缚建立一套新的道德体系,而现有的道德体系已经用了2000多年。
举一个极端的例子:当一个自动驾驶的车辆已经探测到无法避免前方事故的情况下,它唯一可做的选择是向左闪躲或者向右闪躲,这个时候左边可能有一个摩托车,右边可能有一个行人,那自动驾驶系统应该如何去做?
虽然这是个极端的案例,但是可以直接地阐释当下自动驾驶所面临的伦理道德问题以及相关风险。在北京交通大学法学院教授吴文嫔看来,从立法现状来看,目前人工智能并不能独立地承担责任,不能成为独立的民事主体。所以,人工智能以及自动驾驶技术的侵权责任应该适用产品质量责任,但是因为人工智能并非独立的民事主体,所以并不能由机器人自己承担责任,而应该具体考虑研发者和生产者之间的责任分配问题。
因此,如果按照行业专家的分析来看,自动驾驶技术所面临的问题不光是人与车,还有人工智能的成熟度。此外,自动驾驶的出现,使得汽车的使用方式被改变,道路基础设施要进行改造,交通管理也要做大幅革新,同时还有各类复杂的社会问题,这些问题中也存在伦理道德的天平。
不可否认,自动驾驶是未来汽车的发展方向,虽然技术的革新与法律框架的搭建正在有条不紊地实施中,但如何真正从伦理道德的角度让公众满意,保证公民的人身财产安全,依旧是摆在自动驾驶面前最大的难题。
本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。
人工智能在法律行业运用的技术手段有哪些?
现在很多人工智能系统把一些人的声音、表情、肢体动作等植入内部系统,使所开发的人工智能产品可以模仿他人的声音、形体动作等,甚至能够像人一样表达,并与人进行交流。但如果未经他人同意而擅自进行上述模仿活动,就有可能构成对他人人格权的侵害。此外,人工智能还可能借助光学技术、声音控制、人脸识别技术等,对他人的人格权客体加以利用,这也对个人声音、肖像等的保护提出了新的挑战。例如,光学技术的发展促进了摄像技术的发展,提高了摄像图片的分辨率,使夜拍图片具有与日拍图片同等的效果,也使对肖像权的获取与利用更为简便。此外,机器人伴侣已经出现,在虐待、侵害机器人伴侣的情形下,行为人是否应当承担侵害人格权以及精神损害赔偿责任呢?但这样一来,是不是需要先考虑赋予人工智能机器人主体资格,或者至少具有部分权利能力呢?这确实是一个值得探讨的问题。
人工智能的法律三问 人工智能侵权责任如何认定
人工智能侵权责任如何认定?
2016年11月,在深圳举办的第十八届中国国际高新技术成果交易会上,一台名为“小胖”的机器人突然发生故障,在没有指令的情况下,自行砸坏了部分展台,并导致一人受伤。
人工智能应用范围的日益普及,其引发的侵权责任认定和承担问题,是对现行侵权法律制度提出的又一个新的挑战。
“从现行法律上看,侵权责任主体只能是民事主体,人工智能本身还难以成为新的侵权责任主体。即便如此,人工智能侵权责任的认定也面临诸多现实难题。”在清华大学法学院教授程啸看来,侵权发生后,谁是人工智能的所有者,就应当由谁负责,在法律上似乎并不存在争议。“然而人工智能的具体行为受程序控制,发生侵权时,到底是由所有者还是软件研发者担责,值得商榷。”
与之类似的,当无人驾驶汽车造成他人损害侵权时,是由驾驶人、机动车所有人担责,还是由汽车制造商、自动驾驶技术开发者担责?法律是否有必要为无人驾驶汽车制定专门的侵权责任规则?这些问题都值得进一步研究。
“现实中,人工智能侵权责任的归责原则,可能更多涉及危险责任或无过错责任。”程啸认为,例如无人驾驶汽车致害,无论从产品责任还是机动车交通事故责任上看,都可以适用无过错责任。但未来需要考虑的是,人工智能技术的运用,其本身是否属于高度危险作业(如无人机),从而决定了是否适用高度危险作业致害责任。
“当前,人工智能侵权责任中的因果关系、过错等要件的判断也变得日趋复杂。”程啸还举例说,此前曝光的一些APP“大数据杀熟”和“算法歧视”,由于代码的不透明,加之算法本身的自我学习和适应能力,使得“将算法歧视归责于开发者”变得很困难。
在程啸看来,针对人工智能带来的新问题、新挑战,在法律制度的研究方面未雨绸缪,将为以后的司法实践赢得主动。“人工智能已经到来,只是在生产生活的各个领域分布不均。我们不应等到未来分布均匀、人工智能已完全融入生产生活的方方面面时,才想起来从法律进行规范。”程啸说。
关于人工智能时代,如何用法律按下“规制键”的介绍。
不久前,DeepMind公布了AlphaGo的最新升级版本AlphaGo Zero,并在《自然》杂志上对其使用的相应技术做出详解。DeepMind称:“AlphaGo Zero与AlphaGo最大的不同是做到了真正的自我学习,经过3天的训练,就以100:0的战绩完胜前代AlphaGo。”曾与AlphaGo有过交战的柯洁也在第一时间做出回应,柯洁表示,“对于AlphaGo的自我进步来讲……人类太多余了”。
近些年来,人工智能持续升温,成为全球科技研发的新热点。Google、百度、阿里巴巴、腾讯等不少国内外大型互联网企业,都在加大资金与人才投入,试图抢先占领人工智能技术的高地。在国家层面,很多国家也纷纷出台政策支持人工智能的发展。如2014年欧盟发布了《欧盟机器人研发计划》,2016年美国发布了《国家人工智能发展与研究战略计划》,2017年法国发布了《人工智能战略》。我国政府也于今年7月发布了《新一代人工智能发展规划》。
人工智能可能引发大量技术性失业
人工智能到底会让人类的生活变得更美好,还是更糟糕?在人工智能突飞猛进的同时,也伴随着质疑甚至抵制。
近日,英国著名物理学家史蒂芬·霍金表示,人工智能(AI)的崛起可能是“人类文明史上最糟事件”,除非人类社会能够找到控制AI发展的方法,否则后果不堪设想。确实,人工智能如果运用不当,的确可能产生很多问题。
首先,人工智能可能引发大量技术性失业。创新工场董事长李开复在2016WISE大会上表示,未来十年,世界上50%的工作都会被人工智能所取代。准确的数据可能无法预测,但人工智能必然会使很多职业消失,可能导致就业停滞,从而给社会带来不稳定性因素。
第二,人工智能可能导致新的不平等。开发者可能存在种族偏见、性别歧视、特定疾病歧视,基于此而开发出来的人工智能就可能存在算法歧视,从而造成新的不平等。而且,由于人工智能导致的就业停滞和生产力提升,可能导致财富更加向少数人集中,从而也可能引发新的资本不平等。
第三,人工智能可能导致责任空白。对于人工智能产生的损害,如何承担分配责任还远未达成共识,开发者、生产者是否应当承担瑕疵担保责任,能否确立人工智能的法律人格地位还不得而知。当开发者、生产者由于破产等因素无法、无力担责时,受损者可能无法得到赔偿、补偿。
第四,人工智能可能失控,成为后人类的敌人。开发者与使用者可能基于不正当目的开发、使用人工智能,从而可能给人类带来毁灭性的灾难,例如一些极端恐怖组织可能滥开发、滥利用人工智能。而且,目前人工智能已经具有深度学习能力,会不断演化进步。霍金警告说,“由于受到缓慢的生物演化的限制,人类不能与AI竞争,最终将会被代替”。
对人工智能担忧并非杞人忧天
由此可见,对人工智能的出现存在隐忧,是有一定道理的。很多新生事物刚出现时,往往不被广泛接受甚至受到极力抵制。就如同百年前的“车马大战”,汽车刚产生时就受到了马车行业的大力抵制,因为汽车严重影响到了马车夫、马车生产商、马厩管理员、马粪清理工等许多人的生计。但是,进步的科技终将无法阻挡,汽车最终取代了马车。
人工智能必将给未来人类社会带来翻天覆地的变化。但对人工智能的诸多担忧并非杞人忧天,如果没有法律的有效规范,人工智能不仅不可能成为人类的福音,反而还可能成为人类的丧钟。然而,也不能因噎废食,因为人工智能可能存在隐患,就全面禁止或不当限制其发展。相反,应当积极运用法律,对人工智能进行适度有效的规制。
规制人工智能就是要规制人的智能
人是人工智能的总开关,所以规制人工智能首先需要规制人的智能,需要对人工智能的开发者进行规制。开发者在设计人工智能时,应当以人为本,以有利于社会福利最大化而非利润最大化为理念,遵守基本的社会伦理道德,消除各种歧视观念,遵守平等原则。禁止基于不正当目的开发人工智能。开发者应当审慎设计相关代码程序,如果某项人工智能所促进的社会公共利益,与其所造成的损害明显不成比例,违反比例原则,或者可能失控,就应当及时放弃。
其次,应当对人工智能的销售者与使用者进行规制。销售者应当建立并执行人工智能产品进货检查验收制度,验明人工智能产品合格证明和其他标志,禁止销售不合格的人工智能产品,不得伪造或者冒用认证标志等质量标志。使用者应当合理利用人工智能,不得损害国家、社会及他人合法权益,法律应当合理设定相应的使用条件与标准。
第三,明确人工智能致损的责任分担机制。如果开发者在设计时存在故意或重大过失,导致损害发生,则应由开发者承担责任。如果由于开发者当时的认知局限,没有预见到未来发生的状况,导致损害发生,开发者也应当承担责任,即瑕疵担保责任,因为开发者有所获益,就应当承担相应的风险,而且如此更能促使开发者审慎地设计相应的代码程序。在索赔方式上,使用者、受害者可以直接找开发者索赔,也可以找销售者索赔。如果销售者与使用者存在过错,则应承担相应的责任。此外,应当逐步建立完善的人工智能产品保险制度。
技术中立不代表可以脱离法治
科技需要在法律的轨道上发展,技术中立并不表明技术可以脱离法治。尽管存在隐忧,但只要法律规制适当,具有诸多优势的人工智能必定会给未来人类社会带来无穷大的正能量。
因此,应当对人工智能进行适度有效的规制,及时立、改、废相关法律制度。我国国务院在《新一代人工智能发展规划》中提出,“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。在规制人工智能时,政府应当处理好科技创新与法律规制的关系,按照“鼓励创新、包容审慎”的原则,确立事前备案、事后惩处的机制,使法律既能有效保障公民权利,又能支持促进科技创新。
ai换脸违法吗
AI换脸技术起初广泛应用于电影制作,后被应用于各个行业,并且应用也逐渐变得更加便利,使得普通民众也能熟练应用这项技术,这也导致了技术滥用,AI换脸技术应用所产生的消极影响也逐渐的暴露。有一部分人在未经他人同意的情况下,擅自将受害人的图片通过AI换脸的方式,应用到了淫秽视频和动漫作品中。在国内真正使得AI换脸技术走进普通民众中的是一款叫做“ZAO”的软件,“ZAO”将技术首次实现了全民皆可进行换脸,其将AI换脸技术门槛降到最低,使得仅具有入门级电脑基础的用户通过上传照片也能熟练应用。因为使用人数增加,利用该项技术实施违法活动的人也层出不穷。AI换脸作为一项重大的技术创新,若应用于影视行业可极大降低制作成本。但是,该技术一旦越过道德和伦理的界限,则会打开“潘多拉的魔盒”,使得人人都处于危险的境地。这种技术滥用对当事人造成的损害,是对社会的反噬。而加强法律层面的监管,或许是人类面对AI技术所能筑起的最有力的防线。
拓展资料:AI换脸的过程为:人工智能预先分析好视频里面的五官的形状和位置;你提供照片后,人工智能再分析照片中的五官形状和位置;然后再把照片中五官的形状和位置,与视频对比着进行合并。人脸互换一般可以用于视频合成、提供隐私服务、肖像更换或者其他有创新性的应用。
法律依据:民法典第一千一百九十四条网络用户、网络服务提供者利用网络侵害他人民事权益的,应当承担侵权责任。法律另有规定的,依照其规定。从法律上直接作出了规定,只要网络用户利用网络实施了侵犯他人合法权利的行为,就要追究其民事责任。所以根据网络用户运用AI换脸软件实施侵权行为时的各种方式,可以发现网络用户实际上承担的是一种直接责任、自己责任和单独责任。
第一千一百九十五条网络用户利用网络服务实施侵权行为的,权利人有权通知网络服务提供者采取删除、屏蔽、断开链接等必要措施。第一千一百九十七条网络服务提供者知道或者应当知道网络用户利用其网络服务侵害他人民事权益,未采取必要措施的,与该网络用户承担连带责任。这说明网络服务提供者负有“通知-删除”义务,在一定条件下还需承担连带责任。
文章版权声明:除非注明,否则均为 六尺法律咨询网 原创文章,转载或复制请以超链接形式并注明出处。