当前位置:首页 >

莫纪宏等:人工智能法律风险怎样消弭

对话人

中国社会科学院法学研究所研究员莫纪宏

中国人民大学法学院教授刘俊海

中国政法大学传播法中心副主任朱巍

《法制日报》记者韩丹东

《法制日报》实习生孟雨佳吴双

记者:人工智能机器本身也会出现失效甚至不可控的情况。比如,自动驾驶汽车、智能医疗等在一些情况下可能存在安全隐患。人工智能产品也有事故和产品责任问题,但要分清是人为操作不当还是人工智能的缺陷并不容易,在举证上尤其困难。

莫纪宏:这个问题确实复杂。目前法律上的证据规则都是以人的认识能力可以把握的为限,如果出现了超出人类自身能力的人工智能出现了差错,一是要停止这种人工智能产品的适用,二是对已经造成的损失应当适用“不可抗力”条件来处理相关法律问题和纠纷。

刘俊海:关于举证其实并没那么复杂。举个例子,自动驾驶汽车启动的自动驾驶模式失效,导致汽车撞到前面的车辆上,造成人员伤亡。这种情况,让消费者举证人工智能的缺陷很荒唐,应该是消费者拿商家的承诺来阐明汽车可以自动驾驶,但是采用自动驾驶模式,导致消费者遭受财产损害,这就足以。举证责任不该由消费者承担,消费者只用证明购买使用产品招致损害即可。

如果消费者是故意被人工智能机器所伤害,进而碰瓷索赔,这属于不可原谅的道德风险。此时商家和生产商只要能证明消费者故意就可以免责。如果存在重大过失,也可以免责。

记者:目前人工智能基本都会涉及机器学习技术,这意味着需要收集、分析和使用大量数据,其中很多信息由于具有身份的识别性,属于个人信息。一方面,按照个人信息保护方面的法律规定,这些行为应当取得用户明确、充分且完备的授权,并应当明确告知用户收集信息的目的、方式手段、内容、留存时限还有使用的范围等;另一方面,也有可能因黑客入侵而带来破坏,导致信息安全问题。

刘俊海:人工智能机器消耗信息和数据,就涉及到对个人信息的搜集、归类、提取、分析使用以及涉及到授权别人使用等。互联网再大也大不过法网。无论人工智能怎样进步,也逾越不了法网。人工智能领域没有终生免责的特权主体。所以,按照消费者权益保护法和网络安全法的规定,任何组织个人特别是企业,搜集使用消费者个人的信息数据,无论是个人的隐私空间、个人隐私的数据、个人隐私的活动等,都要坚持合法、公开、知情、同意、合理、必要、有偿等基本原则。这在消费者权益保护法和网络安全法都有规定。

朱巍:现在个人数据保护法暂时还没有,网络安全法已经出台。在未来,一旦人工智能开始学习的时候,实际上每个人都变成了信息产生的主体,届时都会成为机器学习的对象。每个人产出的不一定是产品,而变成了让机器模仿学习的数据,最后可能让人们觉得真假难辨。这还是很可怕的。

人工智能是把双刃剑,个人信息的保护显得尤为重要。

莫纪宏:如果人工智能涉及到危及个人信息的风险,那么就要在法律上针对风险设立相应的制度,要采取风险选择的机制,即要求使用者承担必要风险,这样可以免除部分产品提供者的责任,如果涉及到大范围侵犯个人信息问题而产品提供者又无法有效控制风险,应当从法律上强制终止高风险产品的使用。

记者:目前,法律领域已经有了不少人工智能产品,人工智能会改变法律服务职业吗?

莫纪宏:可以利用人工智能的技术优势来从事一些辅助性的法律服务工作,未来确实可能会影响法律服务职业,但绝不能把实体的审判过程和结果也交给人工智能来实施,司法判决仍然必须具有价值倾向。

朱巍:人工智能不会改变法律职业。真正解决问题,还得靠人。

记者:人工智能有哪些隐患?在发展的同时要注意些什么?

莫纪宏:人工智能产品的隐患是全方位的,在带来高效率和便利的同时,增加了制度的风险性。所以,要设定制度范围内允许的最大风险承受值,越出的部分就不能再受保护,必须予以放弃。

朱巍:人工智能的隐患在于人。人工智能、网络技术,包括很多的数据技术蓬勃发展,但是不要忘记,人要有所忌惮和底线,不应该做的事不要去做。

刘俊海:一方面是软件程序设计的问题,另外还有一些不可抗的因素。对于这种新鲜事物,要怀有满腔热忱支持人工智能的研发、生产、销售,同时也要做好监管工作。发展与规范并重,更加注重规范;创新和诚信并重,更加注重诚信;安全与快捷并重,更加注重安全;效率和公平并重,更加注重公平。人工智能技术,在法治理性、公平公正、诚实信用的基础之上,才能飞得更高、更远。要坚决扭转只发展不规范,只发展轻规范,先发展后规范的老路。

另一方面要预防的就是讲快捷不讲安全,没有安全的快捷没有任何价值和意义。切莫以利当先,漠视人的生命。不能仅为了人工智能企业一端的利益忽悠消费者,一定要充分尊重消费者知情权、选择权、公平交易权、安全保障权和隐私权。

来源:法制日报2017-06-01