首页   关于我们   服务项目   新闻动态   诚聘英才   资料文案   客户须知   联系我们
科研立项
普通科研立项/部省市级/项目申报书/标书/计划书/评职称科研等
结题报告
结题报告/研究报告/阶段报告/成果报告/调研报告/开题报告等
科学基金
自然/社会科学基金/产学研/青年/教育/软科学/863/学科点等
论文成果
期刊论文/毕业论文/应用文/代写/发表/翻译/成果编撰/出版等
 
人工智能伦理危机的立法干预
添加时间: 2021/9/28 11:17:20 文章来源: 文章作者: 点击数:48

                   郑志军 张安毅*

(郑州市中级人民法院 ;河南 郑州 450000

摘要:人工智能可以取代人类工作的特性引发了一系列社会伦理问题,包括人工智能是否能享有权利、是否应获得主体地位,人工智能致损的侵权责任谁来负责,人工智能决策时如何进行道德选择等。目前并没有让人工智能独立担任社会角色、独立发挥社会功能的需要,赋予人工智能主体地位没有实际意义,需要激励、约束的是人工智能背后的设计者、生产者、使用者的行为。人工智能在本质上属于产品,应要求设计者、生产者、销售者对人工智能致损的受害人承担产品责任。为避免人工智能的自主决策违反人类伦理底线,应在产品质量标准中加入伦理道德规范。

      关键词:人工智能;伦理;干预

Legislative Intervention in the Ethical Crisis of Artificial Intelligence

Zheng Zhijun  Zhang Anyi

(Zhengzhou intermediate people's court; Zhengzhou 450000, Henan)

Abstract: The characteristics of artificial intelligence that can replace human work cause a series of social ethical problems, including whether artificial intelligence can enjoy the rights, whether it should obtain the dominant position, who is responsible for the tort liability caused by artificial intelligence, and how to make moral selection when artificial intelligence makes decisions. At present, there is no need for AI to play its social role and function independently. It is of no practical significance to give it the status of subject. What needs to be encouraged and constrained is the behavior of designers, producers and users behind AI. In essence, artificial intelligence belongs to products. Designers, producers and sellers should be required to bear product responsibility for the victims of artificial intelligence damage. In order to avoid that the independent decision-making of artificial intelligence violates the bottom line of human ethics, it is necessary to add ethical standards to product quality standards.

Key words: artificial intelligence; ethics; intervention

人工智能技术诞生之后,迅速成为世界上最炙手可热的科学之一,因为其开启了人类生产生活的全新方式。然而一门新兴科技带来的福与祸总是相伴而行,[1]随着人工智能的广泛应用,其高智能、自主决策的特性引发一系列伦理问题,比如智能主播辱骂听众、自动驾驶汽车为自保而撞击行人等。早在2015年,霍金就发出过警告,超级聪明的人工智能可以非常容易地实现它的目标,如果这些目标与人类不一致,人类就麻烦了。[2]因此,伦理规则十分有必要融入到人工智能技术规范要求之中。法律是为社会提供行为模式、行为标准和行为底线的规范为了防止人工智能伦理危机失控,避免人工智能技术滥用,必须要通过立法建立规范人工智能技术发展的制度。遗憾的是,人工智能虽然已经历了半个多世纪的发展,但至今有关人工智能的立法国内外都没有及时跟进,人工智能的属性、监管、责任仍处于制度空白,这与人工智能的发展现状及对人类社会的巨大影响是不相称的。如何通过立法干预控制人工智能的伦理危机,正是本文写作的目的与初衷。

一、人工智能的伦理危机表征

迄今为止,从来没有哪一项技术像人工智能一样,能直接取代人类劳动,比如无人驾驶汽车反应速度远超人类,不仅能将人从简单劳动中解放出来,还能大大减少交通事故的发生;高危险、高污染的环境下利用人工智能工作,不但能避免人类发生意外事故,还能节约劳动成本。但从另一方面讲,这些智商超群的人工智能也会成为挑战人类社会秩序的双刃剑,挑战人类社会的伦理底线。许多学者也总结了人工智能的伦理风险,比如人工智能技术在生产领域的应用带来了大规模失业,人工智能武器的强大杀伤力带来安全隐忧等,[3]再比如人类与人工智能机器人产生感情的问题。[4]笔者认为,上述问题是人类选择人工智能技术后自身抉择带来的问题,本身还在于人类,是人类自身应该解决的问题,比如伴侣机器人导致用户产生依赖于而减少社会活动的现象,这些问题在本质上不是人工智能技术而是人的问题。本文要讨论是人工智能技术自身的伦理危机,比如无人汽车在自动行使过程中为避免事故发生的决策规则,这些是人工智能拥有思考能力及自主决策能力之后对人类社会原有伦理规则的破坏,必须要做出应对。从这一角度,看人工智能本身的伦理危机主要表现在:

(一)人工智能的主体地位伦理危机

人工智能虽为“人工”,但其智能水平却可以无限提升和进化,“阿尔法狗”战胜世界围棋冠军就说明人工智能最终能达到的水平和高度不可估量。而且在生命周期、学习能力和感知能力方面,人工智能相比人类拥有更大的优势,也不会被疾病、自身意识所困扰。按照目前人工智能的发展趋势,人工智能必将获得脱离人类控制的独立自主能力,如果智能机器人具有了所谓的“人性”后,它是不是也应该和人类一样拥有“人权”呢?人类习惯性的把他们始终作为工具是否合适?高级人工智能在无须输入任何先天知识、无人类智慧直接参与的前提下,系统自身可以独立生成新的智力内容、创造新的成果比如一篇新闻报道、一首诗歌,这些成果应该归属于谁?人工智能生成物之上的权利应属于人工智能本身,还是进入公有领域谁都可以使用,还是归属于人工智能设计者、使用者,或者是人工智能所有人?人工智能发展的一个里程碑式事件是机器人“索菲亚”取得沙特阿拉伯国籍,这也说明人工智能对人类的主体地位造成了严重的冲击,此问题的本质是人类应该如何看待人工智能,是否需要、能否赋予其主体地位?

(二)人工智能的侵权责任伦理危机

人工智能侵权一般是指应用人工智能技术的终端如无人驾驶汽车对他人权益造成损害的情形。如果是人类控制、指令、利用人工智能实施侵害,此时人工智能成为人类的作案工具,这与传统侵权行为没有区别,适用传统的一般侵权责任规则就可以解决。但人工智能侵权的常见情形是人工智能自身在没有外来干扰的情况下,在运行过程中致人损害,这可能源于人工智能设计、编程的漏洞、缺陷,也可能源于控制系统损坏或运行设备的物理损坏等。比如2016  11 月,在深圳举办的第十八届中国国际高新技术成果交易会上,一台名为小胖的人工智能突然发生故障,其自行打砸展台并导致人员受伤。在传统一般侵权责任规则下,承担侵权责任源于侵权人的过错,无过错即无责任,这是为了在一定程度上保护行为人的行为自由。但很多时候人工智能运行过程中处于完全自主、自动的状态,比如谷歌的概念车就已经完全取消了方向盘、刹车等干预装置,此时发生侵权事故,判断谁有过错并进而确定责任人就成为难题。一些场合人工智能具有后天学习能力,比如无人驾驶汽车在自动驾驶时就会通过对以往路况的分析来选择最佳路线和驾驶模式,因此使用者也无法准确预测人工智能在某些情况下会做出何种行为、发生何种后果。人工智能按照人类设计的既定程序运行,现行法律也没有针对人工智能规定注意义务,无法说其有过错;人工智能的管理人、使用人、所有人没有实施导致损害发生的行为,他们也避免不了人工智能致损事件的发生,比如自动汽车内的人纯粹是乘客而不是司机,更不存在过错。那么谁来为人工智能的侵权负责才具有伦理正义性?

(三)人工智能的自主决策伦理危机

人工智能在使用过程中会大量出现自主决策的过程,而这些决策原本可能是需要人类做出的,这导致人工智能很多时候会像人类一样陷入道德选择困境,这是人工智能作为人类工作替代物面临的最大问题。正如学者指出的,自动驾驶汽车的算法也可能需要面对伦理上的挑战。[5]例如在可能发生事故时自动驾驶汽车是严格遵守交通规则还是保护人类优先?一辆自动驾驶汽车在行进过程中面对突然从路边跑过来的小孩,可能需要在双黄线上转弯以避免撞到小孩,但这可能违反交通规则,此时就需要做出抉择。但人工智能不具有人类所独有的道德情感以及是非善恶意识。人工智能的行为和决策很可能违背我们人类的伦理道德规范底线。实践中已出现类似的实例,微软推出的智能聊天机器人Tay上线 24 小时即在与人的交流过程中,被“教坏”而成为满嘴脏话的“不良少女”,被紧急下线。[6]这不啻为一记警钟。当然有时候用户自身可能道德素质不高,人工智能违反道德的决策可能与用户的要求并不违背,但人工智能作为影响整个人类发展的高科技产品,为其设置伦理道德底线以从整体上把控这一领域的发展方向十分有必要。是否应该为人工智能的性能设置伦理边界,这是以往产品制度中从来不需要考虑的,但如果不在人工智能的程序设计上加入伦理规范要求,以保证其行为和决策不违背我们人类的伦理道德规范底线,那么人工智能带给我们的可能不仅仅是便捷,还有人工智能做出有悖社会伦理决策之后无穷无尽的麻烦。

二、人工智能主体地位伦理危机的立法干预

其实,对于人工智能能否具有类似自然人的主体地位,学者已初步展开了讨论,大体分为三类观点,第一种是人工智能应具有主体地位;第二种是人工智能应具有特殊的主体地位;第三种是人工智能应为客体而不是主体。有的学者认为,人工智能应该具有类似于企业法人的主体资格,[7] “赋予非人类作者或发明人法律人格,将为人类利用动物和人工智能之创造能力提供新的激励手段”。[8]有学者认为,人工智能应当具有主体人格,但是属于有限的主体人格,[9]人工智能的权利义务范围应当始终限制在法律规定的范围内。尽管对如何赋予人工智能主体地位,学界还存在争议,但这些观点都倾向于在确定人工智能主体地位的前提下解决现有的难题,比如承认未来人工智能可以自主决策,那么他就可以对自己的成果享有权利,他就可以对自己的行为承担责任。还有学者认为,人工智能仍是物,没有必要改变现行法律体系将其视为主体,“面对人工智能技术的发展,用现行民法的基本理念和基本规则进行适当调整,就能够解决其所带来的问题。不必急急忙忙、不假思索地想着改变民法的基本理念和基本规则。”[10]

赋予人工智能主体地位,无非是源于人工智能的高智能性,目的是激励约束人工智能、更好的利用人工智能。但人工智能的超级智能来源于人类,是按照人类预先设计的算法运算、按照人类设计好的程序运作,人工智能也是人类生产出来的,人工智能无法离开人类独立成为社会主体。退一步讲,假设未来人工智能真的具有了超越人类、不受人类控制的思维、判断和行动能力,此时人类也就无法用人类社会的规则约束它了,人工智能也可能不需要人类赋予其主体地位了,因为他们可能会比人类更好的控制、管理自己。其实,人工智能本身并不需要以获得任何人类社会的权利来激励其工作,相反需要激励的是背后设计、生产人工智能设施的特定主体;如要想让人工智能更好的为人类服务,需要解决的是如何激励其设计者、生产者的问题而不是赋予人工智能主体地位,这可能对人工智能来说毫无意义。人工智能在创作时,人工智能是所有人实现创作目的的工具,人工智能是为完成人工智能所有人事先安排的任务,可以视为是所有人通过人工智能在创作,人工智能生成物的作者和权利人应是所有人。从人工智能生成物产业链的发展来看,将人工智能生成物的著作权赋予人工智能所有人,更能激发人工智能生成物成果的丰富,符合著作权权利激励的制度目的。同理,如果要想约束人工智能的行为,因为人工智能运作模式都是由设计者、生产者决定,社会规范不可能对人工智能的行为进行控制,人工智能也不可能对人类的规则产生敬畏等感情,实际上需要约束、控制的是生产者、运营者的行为,此时要求生产者、运营者对人工智能的行为负责就可以了。

自然人可以成为法律上的主体,这是源于自然法所倡导的天赋人权、人人平等的立法精神。至今来看,自然人的主体价值具有终极性,一切法律规则都是围绕自然人这一主体的利益需求而设计的,这已成为公认的核心理念。而除自然人之外的实体能被赋予主体地位,也只是因为其有作为主体的必要,同时能满足立法规制的技术需求。从立法技术上看,法律调整主体最终是调整其行为,而主体都通过自己的意志决定自己的行为,主体有自己独立的意志是法律调整的前提。比如法人有自己的组织机构,组织机构按照自己的机制决策,就可以产生独立于成员的独立意志,从而做出独立的行为接受法律的调整。但人工智能是由一系列算法来操控,是按照设计者预先设定的程序来运行,不会产生自己独立的意志,法律也无法直接调整人工智能的决策程序。从立法效果上看,人工智能自身就是一种人类创造的财产,自己没有独立的财产,让其作为主体独立承担责任也面临无法执行的境地。如果为其设立类似基金的财产,背后出资、管控、受益的还是人类。据悉,机器人“索菲亚”取得沙特阿拉伯国籍后,也并未真正行使公民权利、履行公民义务,这也说明人工智能成为主体没有实际意义。因此,人工智能没有将其作为独立主体调整的价值需要和基础,“应将人工智能作为法律关系的客体而非主体。”[11]我国立法没有赋予人工智能以主体地位,今后立法也不需要赋予人工智能主体地位。

三、人工智能侵权责任伦理危机的立法干预

自动运行的人工智能失控而致损人类谁应负责?人工智能最大的特殊性是其可以想人一样思考判断决策,但从根本上讲人工智能只是具有特殊功能的产品,并没有超出产品的范畴;人工智能是经过加工生产出来的,制作出来的目的是为参与流通即销售,从这一点来看,人工智能仍然属于产品的范畴。人工智能的属性决定了通过产品责任制度解决人工智能致损侵权责任具有必要性和可能性。在人工智能致损场合,通过产品责任制度由人工智能的生产者、销售者对人工智能产品致损负责,也有利于防范致损事件的再次。产品责任具有规制生产行为的作用。[12]通过产品责任才能促进生产者尽力改进人工智能运行程序、严格生产规范,保障人工智能产品的安全。反过来讲,如果要求人工智能自身对造成的损失承担赔偿责任,也不可能提升今后人工智能在做出同样行为时的注意程度,也无法促使人工智能自身改进运行程序。致损事实发生后,如果需要对于致损的人工智能召回、修理或者更换,这些措施也是人工智能自身所不能采取的,这些法律后果通过产品责任制度才能实现。因此,人工智能的风险也只有通过产品责任规制生产设计行为才可以得以良好控制,通过产品责任补救受害人才能实现伦理正义。

从产品责任制度的设计来看,产品责任制度规制人工智能致损侵权也具有多个方面的适应性:第一,产品责任的无过错责任归责原则,可以督促生产者尽最大努力保证人工智能这一产品的安全,杜绝人工智能产品设计上的瑕疵和盲目生产。有学者就以自动驾驶汽车为例,指出在无人驾驶的情况下系统的可靠性至关重要,对系统安全性问题让生产者承担产品质量责任具有合理性。[13]第二,产品责任适用的前提是产品有缺陷,产品缺陷包括设计缺陷、制造缺陷和警示缺陷三类,人工智能产品的缺陷仍可以分为设计缺陷、制造缺陷和警示缺陷,比如智能机器人不按照输入的指示运行就属于设计缺陷,智能机器人电池漏电就属于制造缺陷,没有合理告知消费者操作注意事项就属于警示缺陷。人工智能在自动运行时致损侵权,基本上就是源于设计缺陷、制造缺陷和警示缺陷这三类原因造成的,可以适用产品缺陷致损责任规则。反之,如果不是人工智能的缺陷造成侵权,而是用户自身的问题,则适用传统侵权责任规则就可以解决。第三,产品责任制度的责任方式也可以适用于人工智能致损侵权。我国立法规定的产品责任承担方式包括排除妨碍、消除危险、赔偿损失,以及对产品缺陷的补救方式如警示、召回等就都可以适用人工智能致损侵权场合。比如产品召回制度可以及早去除危险,避免损害进一步扩大更有利于保护消费者。人工智能产品在设计方面的缺陷,有时只有在使用之后才能有透彻的认识,因此召回制度适用于人工智能产品具有合理性。

由于人工智能与以往人类所有生产的产品都存在巨大不同,人工智能的复杂性非一般产品可以比拟,因此需要结合产品责任的特殊性改造我国的产品责任制度。按照我国《侵权责任法》、《产品质量法》的规定,在适用产品责任时,受害人可以向产品的生产者请求赔偿,也可以向产品的销售者请求赔偿。但人工智能的设计者和生产者往往不是同一主体,设计缺陷不能由生产者埋单。人工智能运行系统十分复杂,即使是专业人士也难以明晰推演其运算过程和机理,非专业设计者更是无法控制其运行风险,因此人工智能的研发设计环节有很强的专业性,不是所有生产人工智能产品的市场主体都有研发设计人工智能产品的能力。为了分散研发失败的市场风险,人工智能设计者和生产者很多场合也是独立的市场主体。实践中,许多人工智能致损都是设计方面的缺陷造成的,比如自动驾驶汽车学习了漂移技术而通过漂移停车造成事故,但本身这种情形就是不允许人工智能学习的,这种情形仍然是设计中的漏洞,应由人工智能的设计者来承担责任。人工智能产品的运行程序是设计者决定的,在人工智能进入流通领域之后,生产者也无法控制人工智能系统会做出什么样的决策。有学者就指出,高度自主人工智可能打破预先设定的算法,这种偏离预期的行为与生产者无关,要求生产者承担责任难以有说服力。[14]因此,人工智能的设计者和生产者不是同一主体时,有必要把设计者纳入产品责任主体范畴。今后我国立法应规定,为了保障被侵权人求偿权的实现,受害人应可以向人工智能产品的设计者、生产者、销售者任一主体求偿。依据我国产品责任中的追偿制度,责任主体承担赔偿之后,可以向最终造成产品缺陷的主体追偿。当然,如果是第三者对人工智能的系统进行破坏,导致出现程序错误、系统紊乱而发生致损后果的,比如黑客攻击了无人驾驶汽车系统导致发生交通事故的,黑客作为第三人应是最终责任人。

四、人工智能自主决策伦理危机的立法干预

尽管笔者不赞成赋予人工智能主体地位,但人工智能技术要接受立法的干预,以保障其做出决策和采取的行为不违背人类社会的道德规则。“人类的最高目标是人类的全面发展,技术只是为这个目标服务的手段。”[15]比如智能主播在阅读资料时看到了人类的欺诈案例,进而出现欺诈听众的情形,就是不应该出现的现象,要从制度上保障从而在技术上予以杜绝。人工智能可以想人一样思考、选择和决策,这是人工智能的优势,人工智能的最高理想是代替用户决策,但人工智能不具有人类所独有的道德情感,这又使得人工智能具有很多危险性。学者就曾指出成功地创造出人工智能是人类伟大的进步。但,这极有可能是人类文明最后的进步。”[16]因此,人工智能的研发从一开始就应该为其算法和程序设置道德伦理边界。2018年12月欧盟人工智能高级别专家组发布了一份人工智能道德准则草案,这是值得推广的做法。

目前我国还未制定人工智能产品的国家、行业标准。产品存在的危险是否合理,目前考虑的因素都与产品质量标准相关,产品质量标准包括技术标准和管理标准两个方面是从产品物理性能、使用性能上分析产品状况,丝毫不涉及社会道德伦理问题。这对判断人工智能的某些仪器设备是否存在缺陷具有适用性,比如判断人工智能传感器是否正常、自动驾驶汽车的轮胎是否有缺陷等,都完全没有问题。但人工智能决策是否会违背人类社会的伦理道德规则,这是以往产品制度中从来没有考虑过的新问题。今后立法应明确,人工智能产品质量标准应加入伦理道德规范,伦理道德规范标准可由人工智能监管部门牵头制定,具体内容应包括:人工智能的决策应遵守法律法规,尊重他人权利,认同社会核心价值观和伦理道德原则等。比如,在自动驾驶汽车的程序设计上就要加入优先保护人类生命安全的规则。如果人工智能程序控制的决策系统不能避免人工智能出现违反伦理道德规范行为的,应视为存在产品设计缺陷,在致人损害时要承担产品责任,当然设计方面的法律标准是毋庸置疑的,人工智能决策出现违反法律情形的,当然属于设计上的重大缺陷。由于人工智能种类繁多,跨越多个行业和领域,因此可以在科技部下面建立人工智能的专门监管部门,每一款人工智能产品都必须要在通过监管部门的审核之后才能上市。

五、小结

科技进步的车轮不可阻挡,但人工智能带来的伦理危机已成为了影响其发展走向的关键问题。尽快明确人工智能立法政策,是应对人工智能带来的伦理挑战的必备工作。人工智能并没有颠覆传统社会架构和体系,法律不可能对人工智能的所作所为进行激励、约束或控制,也没有让其独立担任社会角色、独立发挥社会功能的这种需要,需要约束、规范的是人工智能背后的设计者、生产者、使用者的行为。人工智能在本质上是具有分析判断等特殊功能的产品,人工智能的侵权损害用产品责任制度来救济损失、控制风险具有正义性人工智能自动运行时要替代人类做出自主决策,决定了其会面临道德选择,对此应在人工智能产品质量标准中加入伦理道德规范。

参考文献:

[1] 王云,刘亚平.人工智能技术发展中的生态伦理困境和启示[J].长沙理工大学学报(社科版),2018.(4):7.

[2]黄志澄.如何看待霍金对人工智能的警告[N].中国青年报,2017-06-05.

[3] 李旭,苏东扬,论人工智能的伦理风险表征[J].长沙理工大学学报(社会科学版),2020.(1):13.

[4]王晓丽,徐鑫钰,人工智能的道德风险及其治理[J].华南理工大学学报(社会科学版),2020.(2):2.

[5] Jeffery K.Gurney. Crashing into the Unknown: An Examination of Crash -Optimization Algorithms through the Two Lanes of Ethics and Law [J]. Alb.L.Rev.,2015.(1): 183-267.

[6] 郭爽,微软聊天机器人被教坏变身满嘴脏话“不良少女”[EB/OL].

http://it.people.com.cn/n1/2016/0404/c1009-28248123.html,2016-4-4.

[7] DAVIES C.RAn Evolutionary Step in Intellectual Property Rights-Artificial Intelligence and Intellectual Property[J].Computer Law & Security Review,2011.(27): 601-619.

[8] 梁志文:《论人工智能创造物的法律保护[J].法律科学,2017.(5):56.

[9] 袁曾.人工智能有限法律人格审视[J].东方法学,2017.(5):53.

[10] 杨立新.用现行民法规则解决人工智能法律调整问题的尝试[J].中州学刊.2018.(7):45.

[11] 刘洪华.论人工智能的法律地位[J].政治与法律,2019.(, 1):45.

[12] 刘洪华.人工智能法律主体资格的否定及其法律规制构想[J].北方法学.2019.(4):63.

[13] Tom Michael Gasser. Legal Issues of Driver Assistance Systems and Autonomous Driving[M].Azim Eskandarian ( Ed) Handbook of Intelligent Vehicles. London: Springer2012.1519-1535.

[14] Susanne Beck.The Problem of Ascribing Legal Responsibility in the Case of Robotics[J].AI & Society,2016.(3).473-481

[15] 林德宏.科技哲学十五讲[M].北京:北京大学出版社,2004.280.

[16] [法]吕克·费希.周行译.超人类革命[M].长沙:湖南科学技术出版社, 2017.153.

 
@Kcpaper 工作室 2009-2021 版权所有:科创工作室 1024*768显示最佳 皖ICP备12010335号-9 点击这里给我发消息