人工智能
用AI来审判罪犯?这个想法很危险
人工智能已经在逐渐决定你的未来,不管是你的Netflix观影偏好、是否适合按揭,还是你与未来雇主的相性。但至少目前而言,在法庭上用AI决定嫌疑人是否有罪是不是不太妥当?
令人担忧的是,这似乎已经发生了。美国首席法官John Roberts最近出席一次事件时,被询问能否预见某一天“人工智能驱动的智能机器人将在法庭协助发现事实,或者更争议性地直接作出司法判决。”他回应道:“现在就已经是这样了,人工智能对司法的执行加上了重要的约束。”
Roberts指的可能是近期的Eric Loomis一案,部分由于私人公司的秘密专有软件的推荐,Eric Loomis被判处六年以上监禁。Loomis有犯罪史,被宣判偷走汽车逃离警方追捕,现宣称自己的正当法律程序被侵犯了,因为无论是他自己还是他的代表都无法检查或者质疑这种推荐背后的算法。
虽然针对Loomis的报告的细节仍未解封,但这份文件很有可能包含了大量图表,量化Loomis的生活、行为以及二进宫的可能性。此外还可能包括他的年龄、种族、性别认同、上网习惯以及巴拉巴拉我不知道的东西。重点是我们不知道。
我们确实所知的就是公诉人告诉法官Loomis具有“较高的暴力倾向,较高的再犯可能,较高的事先审理风险”。这只是审判中的标准辞令。法官同意了这种说法,告诉Loomis他被“Compas的评定鉴定为可能危害社会的高度危险个体。”
威斯康星最高法院判定Loomis有罪,并补充道Compas报告对此决议提供了重要信息,但又限制了其作用,称即使没有这份报告Loomis也会受到相同的判决。但我们怎么能知道是不是这样呢?当所有类似Compas的强大“智能”系统都建议法官应该怎么做之时,又会产生怎样的认知偏差呢?
credit: 煎蛋画师Zagon
未知用途
首先明确一点,威斯康星最高法院所做的并无“违法”之处,只是在此情形下想法太差劲了。其它法院这样做就没问题。
令人担忧的是,我们无从得知AI和其他算法在审判中起到了多大程度的作用。我自己的研究表明数个司法管辖区正在不开庭审理中“试用”类似Compas的系统,但并未宣布细节以及什么场合、什么时候使用的。我们还知道有大量的AI创业公司正在争相建立类似的系统。
然而在法律中使用AI不是从审判开始的,而是调研。一个名为VALCRI的系统早已被开发出来执行罪犯分析工作中最耗费人力的部分,在几秒之内处理数吨的数据,比如文字、实验报告以及警方记录等,找出值得进一步研究的内容。
英国的西米德兰兹郡警方将会在接下来三年里使用650万条匿名数据试用VALCRI系统。在安特卫普和比利时也有类似的尝试。但过去涉及匿名数据的AI项目是有问题的。
对少数人有利?
技术给法庭带来了很多便利,从复印机到DNA指纹识别和复杂的监视技术。但这并不意味着任何技术都是一种提升。
虽然在调查和审判中使用AI可能节省时间和金钱,这也会引起很多棘手的问题。ProPublica关于Compas的报告明确指出在佛罗里达布劳沃德县,黑人被告“相比白人被告更容易被判定为具有更高的再犯风险”。最近英国巴斯大学的计算机科学教授Joanna Bryson的研究强调,即使是“最复杂的”AI也会继承设计者的种族和性别偏见。
此外,为什么要把决策工作部分分流给一个由个人设计的算法?我们为什么要费心选择同辈组成陪审团?法律标准从来就不是完美无缺的,而是我们作为人所允许的最大能力。我们可以犯错,但随着时间推移和经验累积,我们会知道如何不再犯错,不断精炼这个系统。
而Compas和类似的系统代表的是法律系统的“黑箱子”。必须坚决反对。法律体系依赖于信息的连续性,透明性以及回顾性。我们不想要一个鼓励AI公司向底线竞争提供尽可能快速廉价和排他产品的司法系统。某些AI观察员可能已经预见到多年以后可能会这样,但其实已经这样了。真是糟糕的想法。
开发开源、可检查可评论的Compas是一种改进方法。不过,在将部分责任分流给算法之前,我们必须保证首先提升司法系统的标准。AI不应成为不作为的接口。
虽然还需要向AI投入大量的资本,但确实存在很多不错的机遇。如果我们正确使用AI,保证能惠及大众而不仅仅是巩固上层利益,就能把很多事情变得更好。
针对上述问题我目前也没有完美的解决方法。但我知道要把AI用在法律中,就必须要问会用在什么方面、用于什么目的以及会受到怎样的监督。在明确回答这些问题之前,要秉承慎重原则。
本文译自 conversation,由 CliffBao 编辑发布。Christopher Markou