文 | 浙江工商大学法学院 马齐林 简怡倩
2016年1月,河北邯郸的高雅宁驾驶特斯拉汽车在高速公路上以“自动驾驶定速模式”行驶。在遭遇位于前方的道路清扫车时,特斯拉车载人工智能却未采取任何紧急制动或避让措施,导致高雅宁径直撞上道路清扫车,并最终抢救无效死亡。
作为我国首起基于人工智能的侵权案件,此案具有一定的代表性。虽然我国目前尚未发生大规模的人工智能侵权案件,但随着自动驾驶汽车的普及,其后或将有类似的案件诉至法院。因此,有必要就人工智能带来的冲击进行前瞻性讨论,并制定相应的风险分担机制,以保障生产者、使用者及受害人的利益。
人工智能的定义
关于人工智能,目前学界有诸多不同定义。尤其在判断智能的标准上,更是有着极大争论。笔者认为,从机器到机器人,人工智能的不同之处在于,其具备了在数据交换的基础上完全的自主学习能力、基于具体环境信息下的自主判断能力,以及自主作出相关行动的能力。概括来说,人工智能是不需要人类介入或干预,即可进行“感知-思考-行动”的机器人。
至于基于人工智能设计的自动驾驶汽车的概念,各国规定也不尽相同。依据美国汽车工程师学会给出的评定标准,自动驾驶可分为6个等级。其中,第0-2级为辅助驾驶车辆;第3-4级为高度自动驾驶车辆(Highly Automated Vehicle,以下简称“HAV”);第5级则被称为无人驾驶车辆(Self-Driving Car,以下简称“SDC”)。
本文所称的自动驾驶,并不包括辅助驾驶。下文分析均基于第3-5级人工智能自动驾驶下的交通肇事情形。
传统民事侵权责任的适用困境
(一)过错侵权责任原则适用困难
依据《中华人民共和国侵权责任法》(以下简称《侵权责任法》),归责以过错责任为核心、以无过错责任为例外。但是,在自动驾驶汽车侵权中,通常难以确定当事人的过错。
以特斯拉汽车为例,在启用SDC模式下,人工智能将独立接管全车的驾驶控制系统,而无需驾驶员进行任何辅助。从某种意义上说,此时驾驶员已经完成了由司机到乘客的角色转变。那么,当发生交通肇事时,若法律将过错归责于驾驶员,则与发明自动驾驶汽车的意义相违背。同时,也将对驾驶员造成极大的不公平,因为这将使其对非因自身过错导致的结果负责。但是,若将过错归责于生产者,也难以自圆其说。究其原因,事发时,人工智能系统是基于自我学习感知而作出的行为,生产者本身并不干预人工智能的具体行动。
(二)产品责任难以举证
当侵权受害人无法以过错责任要求驾驶员赔偿时,理论上似乎可以引用产品责任的无过错原则,以产品缺陷为由,向生产商、制造商追偿。但是,在实践中,该追责方式同样极为困难。
根据我国相关法律规定,受害方负有证明产品存在缺陷的举证责任。但就自动驾驶汽车肇事侵权案件来说,证明其外部机械设备制造缺陷较为容易,证明警示缺陷也有可论证空间。但是,若存在内部的人工智能设计缺陷,由于其技术的高精尖性及不可预测性,受害方很难证明该人工智能自主学习后的程序运行结果是有缺陷的,更难以进一步证明该算法运行结果会有“危及人身或财产安全的不合理危险”。即使发生了交通事故,因人工智能具有高度的自主性和学习能力,且其后天的学习不为初始制造人员所控制,所以,仅从技术层面论证,很难将责任归咎于生产商。生产商甚至还可以援引“开发风险”抗辩或以“技术中立”来主张免责。
(三)人工智能本身不能成为责任主体
有学者指出,既然无法直接适用《侵权责任法》的过错责任与产品责任,那么,能否由人工智能直接承担法律责任?目前来看,这个答案仍然是否定的。依据我国现有法律规定,只有法律主体可承担法律责任,而人工智能尚不具备法律人格,无法成为法律主体,故也无法独立承担法律责任。
若想调整和规范人工智能侵权问题,需对现行法律规则作出进一步完善。笔者提出以下构想,以供讨论。
明确自动驾驶下的风险分担原则
由于人工智能无法独立承担侵权责任,因此,当自动驾驶发生交通肇事时,在无法直接适用现有《侵权责任法》的前提下,应当将产生的风险进行分配,以明确侵权责任。
(一)风险控制原则
依据风险控制原则,当某些日常活动存在一定危险性、有损害他人人身及财产安全的风险时,为了保障社会安全秩序,必然需要相关人员对其中的风险加以控制。该相关人员应具备以下条件:需对特定事物或活动的危险有一定了解;当危险发生时,相关人员需有控制风险的技术或能力。在此情况下,因特定风险引发的损失应由控制该风险的相关人员承担法律责任。
在HAV状态下,机动车的驾驶员或所有人均能对驾驶活动所存在的风险予以一定控制,因而法律有必要赋予其警示义务。在此情形下发生的交通事故,机动车的驾驶员或所有人均应依法对由风险引起的损失承担相应的民事责任。但是,在SDC状态下,基于驾驶员对完全自动驾驶的合理信任,以及发明人工智能自动驾驶的本意,法律可不强制要求驾驶员负有警示义务,驾驶员此时无需对损失承担最终责任。
(二)危险开启原则
危险开启原则认为,存在危险的日常行为活动是社会发展的必然需要,危险本身是被法律所允许的,危险活动的开启人并不需要承担法律责任。但是,在活动进行过程中,如果有关人员存在过失,则危险活动的开启人为责任主体,应承担责任。
在HAV和SDC状态下,驾驶员使用自动驾驶系统,会在原有基础上给社会增加一定危险,属于开启一种危险活动的行为。由此,在HAV状态下,若驾驶员在驾驶过程中存在过错(如未合理注意),则其应为事故的责任主体;而在SDC状态下,驾驶员虽并无警示义务,但基于其危险开启人身份,也应与生产者共同承担不真正连带责任。
(三)报偿原则
报偿原则认为,给予每个人其应得的东西,乃是“正义”概念的题中之义。“应得的东西”既包括正面的利益,也包括负面的罚则。该理论应用于民法领域,即当民事主体进行活动或负责管理某物时,其在享受该民事行为带来的收益的同时,也要承担伴随而来的风险。
在自动驾驶状态下,首先的受益者是驾驶员。当人工智能为其服务时,驾驶员既解放了双手,又能到达目的地。但是,考虑到驾驶员(或者说车辆所有者)已在购车时就付出了相应的购置费,因此,可以认定其已提前为自己所受利益“买单”。
此外,人工智能自动驾驶系统的生产商也是受益人之一。一方面,生产商已收受消费者高昂的购置费;另一方面,自动驾驶系统在被使用过程中会自动识别路况、收集数据,并通过内置程序反馈给生产商,而生产商则可以利用这些数据,进一步升级和完善人工智能系统。由此可见,生产商的收益是贯穿人工智能生产和使用全阶段的。因此,基于报偿原则,由生产商承担主要责任、驾驶员或车辆所有者承担次要责任,是符合公平正义原则的。
根据上述风险控制、危险开启和报偿原则,在使用自动驾驶系统的过程中所产生的事故责任,应当由机动车驾驶员或车辆所有人、人工智能系统生产商和车辆生产商等民事主体依合理比例进行分担。
自动驾驶侵权下各主体具体责任划分
(一)驾驶员责任
在HAV状态下,若因人工智能系统问题而造成机动车交通事故,将责任完全归于无过错的驾驶员显失公平。根据上述风险控制原则,只有当系统已警示驾驶员进行接管而驾驶员未操作时,驾驶员才需对此次事故承担与其过错相应的责任。但是,由于受害者是比驾驶员更弱势的存在,其利益更值得保护。因此,在举证责任方面,应当适用过错推定原则,由驾驶员举证自身不存在过错。
在SDC或已尽警示义务的HAV状态下,非因驾驶员干预而引发事故时,驾驶员将不承担任何过错责任。但是,根据报偿原则,驾驶员享有一定的受益。因此,为了保护受害人的利益,在此种情形下引入不真正连带责任的概念是可以接受的。此时,受害人具有向驾驶员或生产商索赔的选择权。驾驶员先清偿后,可再向生产商追责。
(二)外部载体生产商责任
当自动驾驶汽车内部人工智能系统与外部机械载体不属于同一生产商时,则发生责任主体的分离。如发生制造缺陷情形,则应单独追究载体生产商的责任。在现实生产中,若产品本身已背离其设计意图,那么,即便在制造和销售该产品的过程中已尽到所有可能的谨慎,产品仍然会存在不合理的危险性,即制造缺陷。制造缺陷通常与设计无关,而是由于在制造的过程中质量不过关、工艺水平达不到要求、产品物理构造缺陷等原因引起的。自动驾驶汽车外部载体的制造缺陷与其他普通产品的制造缺陷并无不同,仍可适用我国关于产品责任的相关法律规定。
(三)内部智能系统生产商责任
内部智能系统生产商,即核心AI程序的生产商。目前,人工智能自动驾驶系统在测试中所出现的问题,主要分为以下几种:
设计缺陷。设计缺陷通常指的是某一产品在设计上存在的固有缺陷。从自动驾驶系统的角度看,设计缺陷指的是自动驾驶系统的生产者在进行预置算法、设计程序等制造过程中就已经“埋下”的不合理危险。该缺陷并非由于人工智能的后天学习所致,而是先天的人为可控缺陷。因此,设计缺陷属于《中华人民共和国产品质量法》的调整范围,可引用现行产品质量问题归责方式,由生产者和销售者承担不真正连带责任。
警示缺陷。只有在HAV模式中,人工智能自动驾驶系统才需要驾驶员进行配合、保持一定的警示、随时等待接管或进行其他操作,故警示缺陷仅发生在HAV模式中。但是,驾驶员进行接管或采取其他操作的前提是系统发出警示,并且生产商已经提前告知消费者使用方法。若生产商未尽告知义务或因其过错导致警示系统存在缺陷,则应由生产商承担最终责任。
不可验缺陷。不可验缺陷是指由于产品内置了人工智能系统而引发的特殊独有缺陷。由于人工智能已具备自主学习能力,因此,算法行为从根本上来说是动态的,是生产者难以提前预见的,人工智能系统的“感知-判断-行为”这一决策逻辑过程,都取决于其自身的经验和与驾驶环境的相互作用,依赖于自身学习所产生的数据。当出现交通事故时,或许按照人工智能自身的逻辑判断并不应出现问题,或者无法查明究竟是何种原因引发人工智能作出相关行为,进而导致事故,此类危险可称为人工智能的不可验缺陷。笔者认为,此处应当借鉴美国、日本的理念,对生产者适用绝对责任。同时,设立风险转移途径以降低生产者的制造压力。如今,人工智能系统几乎摆脱了人类的操控。因而,讨论人类在主观上的故意或过失已无太多意义,更有必要关注所引起的侵害事实与损失,这也契合提出绝对责任之初衷。
生产者的风险转移
基于受害者的弱势地位,赋予生产者以绝对责任是可接受的。但不可否认的是,人工智能技术目前仍未完全发展成熟,此时将不可验缺陷所导致的侵权责任一味地归由生产商承受,或将极大地打击国内厂商研发人工智能的积极性。因此,有必要建立生产商的风险转移机制,以减轻其责任负担,促进人工智能生产研发的蓬勃发展。笔者提出以下几点建议:
(一)建立双轨制责任保险制度
商业保险作为现代社会经营者转移风险的重要途径之一,也可被引入自动驾驶领域。美国加利福尼亚州最新制定的自动驾驶汽车明示条款规定,制造商必须以投保商业保险、提供保证金或自保证明的方式,证明其有能力对自动驾驶车辆交通肇事判决承担损害赔偿责任。
就我国自动驾驶行业而言,建立双轨制保险制度是可选路径。首先,驾驶员投保机动车强制责任险的义务仍然保留,以便于应对人工驾驶或在HAV模式中驾驶员承担过错责任时的损害赔偿。但同时,保险内容应当新增“因车辆使用者未尽检查、维修义务或未按法律规定使用汽车等原因造成的交通事故”条文,并提高相应的保费。其次,由保险公司设立专门的人工智能自动驾驶责任险。其主要保险对象为因人工智能自动驾驶系统的不可验缺陷所造成的侵权责任,并可参照机动车交强险的强制投保义务,由法律强制要求生产商为其生产的人工智能产品投保。
在双轨制责任保险制度下,当自动驾驶车辆肇事后,不仅生产者和驾驶者承担责任的压力可减轻,同时,受害者也将获得充分的保障。
(二)设立人工智能信托责任基金
除了保险途径外,建立信托责任基金也是应对人工智能侵权的方式之一。美国曾颁布的“价格-安德森法案”(Price-Anderson Act)为核事故设立了两层责任保障:第一层是私人保险,由保险公司承保;第二层是责任保险基金池,属于事故责任信托基金,由运营核反应堆的私营公司按比例分摊和注入资金。
与核产品类似,自动驾驶汽车的高社会效用同样伴随着高风险。无人驾驶如若在未来全面普及,全城的汽车行驶路线将完全取决于内置的人工智能程序的决策。彼时,如果人工智能程序遭受黑客攻击而发生大面积错乱驾驶,又或者人工智能因自身逻辑错误而罢工,其灾难性将不亚于核泄露。因此,笔者认为,有必要为人工智能自动驾驶设置类似的信托基金池,由运营自动驾驶的私营公司按比例分摊池内金额,以保障在第一重保险赔偿后仍无法受偿的受害人获得第二重救济。
人工智能的发展已成为不可阻挡的历史潮流,现有的法律体系必然将受到冲击。本文以人工智能领域中发展较快的自动驾驶汽车行业为切入点,分析了现代法律在适用人工智能侵权时可能陷入的困境,并进一步探讨了自动驾驶下的具体侵权责任划分。希望借此能为我国法律规制人工智能问题提供一些思路,进而促进人工智能领域的良性发展。
【本文系2018年浙江省软科学研究计划项目(计划编号:2018C35050)研究成果】
相关阅读:
本期封面及目录
<< 滑动查看下一张图片 >>
《中国审判》杂志2020年第11期
中国审判新闻半月刊·总第249期
(关注“中国审判”微信号,获取更多精彩资讯)
编辑/孙敏