3月 142016
 

The first thing we do, let’s kill all the lawyers.

——Henry The Sixth, Part 2 Act 4, scene 2, 71–78

对于人工智能,人们总是既期盼又忧虑,期盼人工智能可以让我们的生活更加轻松,忧虑人工智能会成为人类的“终结者”,让电影中的可怕场景成为现实。虽然没有人会知道“奇点”(人工智能彻底超越人类智能的时刻)何时会到来,但人工智能的发展已经让所有职业都到了不得不改变的时刻。

对于法律人来说,哪怕不把视线投得那么遥远,现实一些来说:当法律咨询开始基于IBM的Watson技术,当腾讯财经与新华社开始使用自动的程序写新闻稿,当德勤的合同审查工作开始交给人工智能,当Dentons开始为人工智能程序提供素材……面对这些技术变革,法律人没有理由再置若罔闻。

一、已经降临的未来

2011年,IBM公司的Watson参加综艺问答节目Jeopardy。该节目的比赛以答案形式提问、提问形式作答,问题设置涵盖历史、文学、艺术、流行文化、科技、体育、地理等多个领域。在节目中,Watson击败人类选手获胜,并展现出了对自然语言惊人的理解能力。

Watson的技术后被运用于包括法律服务在内的多个领域。位于加拿大多伦多的一家公司基于Watson技术开发的智能法律助手ROSS,用以直接回答用户所提出的法律问题。Dentons也意识到了ROSS在法律服务行业中巨大的潜力,开始为ROSS重点提供破产方面的法律数据。

ROSS使用Watson提供的接口(API),结合自己研发的算法LegalRank——一种在Google的PageRank算法上进行改良过的算法。Watson现在可以回答一些法律问题,比如说像“企业破产后是否可以继续经营这样的问题?”ROSS可以立刻给出一个回答,而不是呈现一堆搜索结果。对于给出的回答,用户可以选择“点赞”或者“不同意”,系统会不断根据反馈对算法进行优化。

根据Watson的工作原理,在提出一个问题后,Watson大致上会根据以下原理进行回答:

  • 利用自然语言处理能力去理解问题的语法及文本
  • 通过评估问题所有可能的含义来确定问题是什么意思
  • 从数以百万计的文档中找出数以千计的可能答案
  • 收集材料并根据评分算法给所有的材料进行评分
  • 根据支持材料的评分对所有的答案进行排名
  • 提供一个解决方案

这种回答问题的思路看上去是不是很眼熟?实际上这就是法律人在回答法律问题时的一种典型思维方式:

  • 对问题本身进行理解,拆解成法律问题
  • 进行法律检索,从成千上万的法律条文及案例中找出与问题相关的材料
  • 根据筛选出的与问题相关材料,结合自己法律知识及经验回答问题

Watson的工作原理就是模仿人类的认知过程——观察、学习、组织语言、处理数据、得出结论,即“像人类一样思考”。不同的地方是,Watson与ROSS的思考速度远胜于人类。并且计算机程序具有几乎可以在瞬间遍历各种数据库的优势,对于人类来说繁复的法律检索对人工智能来说其实无比轻松。

目前看来,这一类的人工智能系统在解决法律问题时至少有两个技术障碍需要解决:一个是自然语言处理的能力,另一个是法律人积累的经验、思维方式如何被转化为算法。

实际上,这两个技术障碍并不是人工智能进入法律行业所独有的,而是人工智能在渗透每个专业领域时几乎都会遇到的问题,只不过在处理法律问题时这两个障碍会尤为突出。

对于第一个技术障碍,人工智能需要自然语言处理技术来理解用现实中提出的各种问题并给出基于自然语言的答案,而不只是检索的若干结果。像苹果的Siri或者微软的Contana就是自然语言技术的运用成果。只是在法律问题时,我们的需求会远不止“请帮我找到宪法第X条”这么简单,问题本身就会异常复杂。很多时候律师们在第一次会见当事人时会花费大量的时间在搞清楚问题是什么上,而这对于人工智能来说理解复杂问题会更加的困难。不过我相信,这只是暂时的障碍,随着各种自然语言识别技术的广泛使用,所获得的反馈也会越来越来多,有助于推进自然语言识别技术的发展。

对于第二个障碍,虽然法律人向来对自己所谓的“像法律人一样思考”(Think Like a Lawyer)颇为自豪,但这并不是一道不可逾越的屏障。只要能够理解问题的含义,经过对大量公开裁判文书的分析,并不难找出问题所对应的法律依据,如果能够处理得当,人工智能就可以给出一个得当的答案。如果在未来数年真的出现了可以通过司法考试的人工智能,我并不会意外,因为司法考试的习题有标准答案(而且大多是选择题),答对并不困难。

对于人工智能来说,真正困难的工作可能在于大量现实中的法律问题并不存在标准答案,对于法律问题的解答需要在包括利益、人情、机会等各方面的权衡,需要具有真正理解现实社会的能力,这对经验丰富的律师来说都未必是简单的工作。

要解决这个问题,或许可以从此次围棋人机对战中战胜李世石的AlphaGo的技术上获得借鉴。AlphaGo使用了不止一个“大脑”,不仅可以计算每一步棋的最佳概率,还具有判断棋盘上整体局面的能力,并以此协助每一步棋的选择。因此AlphaGo在策略选择上就具有优势,或许这正是解决复杂法律问题所需要的,对问题本身可以有更加全面的认识。不过这只是一个思路,法律问题的复杂程度远胜于围棋,不止局限于黑白两方参与博弈,甚至有些案件的胜负都尤难判断,诉讼的目的也未必是胜诉。这显然是人工智能所面临的巨大挑战,当然我也期待人工智能的发展,或许借助人工智能来协助工作,反而可以让我们发现法律服务新的维度。

二、法律人的明天能咋样

因为人工智能的高速发展,让法律服务这样的专业服务行业的前景看上去一片灰暗,稍有远见的人都会担心自己的饭碗。即使是不考虑人工智能,对专业知识的整理与归纳就足以让专业的门槛不再高不可攀。以国内的法律服务行业为例,一个叫做“推之”的微信服务账号就可以实现对交通事故纠纷、劳动争议、以及婚姻家庭法律问题的检测,用户可以层层选择自己遇到的实际问题,系统则会将预设好的答案告诉用户。这种服务实际上以及涵盖了大量常见的法律咨询的内容,打磨得当的话会让律师免于常见、简单法律问题的咨询。

那么,面对这样的情况,法律人又能做什么?

在《哈佛商业评论》的网站上,有一篇文章叫做The End of Expertise,就讨论了这个问题:如果真正的专家在市场上不再具有优势地位,并且传统的展现专业技能的方法被颠覆,那专业人员又该如何?该文章的答案使用了The Trusted Advisor一书中提出的信任公式。信任对于专业服务来说至关重要,可以帮助专业人员更好地将专业知识传达给客户。

0

法律人的可信度从来都算不上高,不时出现的“律师为何要替坏人辩护”这样的声音就可以见识到人们心中法律人的可信的有几何。而律师的水平参差不齐,可靠性也远不及电脑程序。值得法律人们为之努力的,看上去只剩下亲和力自我定位两项,这两项是人工智能短时间内无法企及的。

所谓亲和力,没有人工智能可以像人类一样真正关心当事人的处境。在信任关系中亲和力的表现是客户与律师双方的博弈的结果,机器人与人类推杯换盏看上去尚需时日,这其中的心理障碍至少需要一代人的时间来打破。

而所谓自我定位,是指自我表现的欲望。当一个律师在提供法律服务时更多地是为了表现自己能力出众,或者是为了证明自己,那么难免会将客户利益的优先级下调,从而影响到用户对律师的信任程度。专业服务的目的在于为客户服务,而不是表现自我,当表现自我或者是证明自己的欲望越强,那么用户的信任程度也就越低。而现在人工智能程序更多的是为了证明自己足以和人类媲美,证明自己可以做的比人类更快更好。当然人工智能的自我定位问题也会因为随着技术的成熟与普及而获得改善。

在与人工智能竞争的过程中,我们的专业能力可能终有一天会被程序所超过,但人类的优势是我们人性:我们的直觉、想象力、判断力、同情心这些我们与生俱来的能力。如果有一天在这些领域人工智能也超越人类,那么人类文明或许就真的走到终点了。但是,不用担心,我们这代人或许都活不到这么一天。在此之前,随着人工智能的兴起,会有新的法律问题出现让我们来处理。

三、人工智能的法律适用

对于人工智能的法律问题,目前来说被摆在台面上的是无人驾驶汽车的道德与法律问题。今年2月14日,Google无人驾驶汽车在美国加州山景城测试时,与一辆公交大巴发生碰擦,无人受伤。Google公司随后表示无人汽车在此次事故中负有责任。美国参议院也将举行听证会,讨论无人驾驶汽车的发展方向。就连最新一季的The Good Wife中也有一集专门讨论了无人车的法律问题。

随着人工智能的发展,或许会出现需要人工智能产品承担法律责任的问题。实际上这并没听上去那么离谱,而且不会超过《产品质量法》的范畴。如果Google无人车的交通事故发生在中国,那么完全可以适用《产品质量法》第四十三条:

因产品存在缺陷造成人身、他人财产损害的,受害人可以向产品的生产者要求赔偿,也可以向产品的销售者要求赔偿。属于产品的生产者的责任,产品的销售者赔偿的,产品的销售者有权向产品的生产者追偿。属于产品的销售者的责任,产品的生产者赔偿的,产品的生产者有权向产品的销售者追偿。

该条文足以应付短期内的人工智能产品的法律问题。

但可能终有一天,人工智能的发展会让其具有独立性。编写的人工智能计算机代码和我们的DNA似乎会有些许相似之处,在生物学家理查德·道金斯的《自私的基因》一书中,有过这样的表述:

基因也控制它们的生存机器的行为,但不是像直接用手指牵动木偶那样,而是象计算机的程序编制员一样通过间接的途径。基因所能做到的也只限于事先的部署,以后生存机器在独立操作时它们只能袖手旁观。

随着学习能力的完善,人工智能可能会具有越来越高的自主性,厂商对人工智能的控制也会越发减弱,两个初始状态相同的人工智能可能会因为学习的材料不同而具有完全不同的“性格”。那时,再谈论让人工智能自己承担法律责任就不再是天方夜谭了。

四、总结

目前,人工智能会在合同审查、资料收集、尽职调查、材料翻译等领域为法律工作提供极大的便利,并且在工作效率上具有明显的优势。而这些工作现在大多是交给低年级律师或者实习生来完成,因此人工智能会最先威胁到法律行业的新人,这部分人群并不具备从事复杂法律业务的能力,而又需要直接面对来自人工智能的冲击。这种影响甚至会进一步影响到律师事务所的用人模式,减少对新人的雇佣和培养。

如果从正面的角度来看人工智能技术,那么率先抢占该高地的律师或律师事务所无疑可以在激烈的市场竞争者脱颖而出。在可以预见的未来,人工智能还不能够做到抛开人类来提供法律服务,更多的是会协助律师提供法律服务的效率。因此,需要律师们积极拥抱新的技术,这并不是说在朋友圈里写作或者分享几篇人工智能的文章就可以的。我严肃认真地建议法律人去抽时间学习编程(参见拙文《为什么法律人应该学点编程》),了解计算机世界的原理,甚至是参与到人工智能研发工作的中去,至少也需要会使用新技术才算及格。

国外各种关于法律技术的发展早已日新月异,在电子证据管理(Everlaw/Cicayda)、区块链文件保存技术(Factom)、预测案件审理(Juristat)、案例研究(Ravel Law)等领域各种新型法律服务工具早已百舸争流,甚至还有各种交流法律技术的论坛(Legal Technology Forum/Legal Tech Asia/ABA TechShow/Legal Tech NY),着实令人羡慕。可能因为国内的法律服务市场还不够大或者经济利益不够多,关于法律技术的研发远远滞后,法律领域的创业公司多是新媒体或者法律服务平台(并不是说有什么不好),技术含量高一些的可能也就是与金杜有关联的“理脉”了。

而对于人工智能的案件,更有可能率先出现在无人驾驶汽车或者无人机领域。对于其中责任的划分不可避免需要对涉及的技术有所了解,虽然短期内这样的案件或许还不会太多,但只要出现就一定会刺激到公众的神经。

最后,借用电影《侏罗纪公园》里的一句经典台词:“生命总会找到出路”(Life finds a way),让我们对人工智能是拭目以待吧。

 Leave a Reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

(required)

(required)