@ 2017.05.23 , 16:00
29

用AI来审判罪犯?这个想法很危险

人工智能已经在逐渐决定你的未来,不管是你的Netflix观影偏好、是否适合按揭,还是你与未来雇主的相性。但至少目前而言,在法庭上用AI决定嫌疑人是否有罪是不是不太妥当?

令人担忧的是,这似乎已经发生了。美国首席法官John Roberts最近出席一次事件时,被询问能否预见某一天“人工智能驱动的智能机器人将在法庭协助发现事实,或者更争议性地直接作出司法判决。”他回应道:“现在就已经是这样了,人工智能对司法的执行加上了重要的约束。”

Roberts指的可能是近期的Eric Loomis一案,部分由于私人公司的秘密专有软件的推荐,Eric Loomis被判处六年以上监禁。Loomis有犯罪史,被宣判偷走汽车逃离警方追捕,现宣称自己的正当法律程序被侵犯了,因为无论是他自己还是他的代表都无法检查或者质疑这种推荐背后的算法。

虽然针对Loomis的报告的细节仍未解封,但这份文件很有可能包含了大量图表,量化Loomis的生活、行为以及二进宫的可能性。此外还可能包括他的年龄、种族、性别认同、上网习惯以及巴拉巴拉我不知道的东西。重点是我们不知道。

我们确实所知的就是公诉人告诉法官Loomis具有“较高的暴力倾向,较高的再犯可能,较高的事先审理风险”。这只是审判中的标准辞令。法官同意了这种说法,告诉Loomis他被“Compas的评定鉴定为可能危害社会的高度危险个体。”

威斯康星最高法院判定Loomis有罪,并补充道Compas报告对此决议提供了重要信息,但又限制了其作用,称即使没有这份报告Loomis也会受到相同的判决。但我们怎么能知道是不是这样呢?当所有类似Compas的强大“智能”系统都建议法官应该怎么做之时,又会产生怎样的认知偏差呢?

用AI来审判罪犯?这个想法很危险
credit: 煎蛋画师Zagon

未知用途

首先明确一点,威斯康星最高法院所做的并无“违法”之处,只是在此情形下想法太差劲了。其它法院这样做就没问题。

令人担忧的是,我们无从得知AI和其他算法在审判中起到了多大程度的作用。我自己的研究表明数个司法管辖区正在不开庭审理中“试用”类似Compas的系统,但并未宣布细节以及什么场合、什么时候使用的。我们还知道有大量的AI创业公司正在争相建立类似的系统。

然而在法律中使用AI不是从审判开始的,而是调研。一个名为VALCRI的系统早已被开发出来执行罪犯分析工作中最耗费人力的部分,在几秒之内处理数吨的数据,比如文字、实验报告以及警方记录等,找出值得进一步研究的内容。

英国的西米德兰兹郡警方将会在接下来三年里使用650万条匿名数据试用VALCRI系统。在安特卫普和比利时也有类似的尝试。但过去涉及匿名数据的AI项目是有问题的。

对少数人有利?

技术给法庭带来了很多便利,从复印机到DNA指纹识别和复杂的监视技术。但这并不意味着任何技术都是一种提升。

虽然在调查和审判中使用AI可能节省时间和金钱,这也会引起很多棘手的问题。ProPublica关于Compas的报告明确指出在佛罗里达布劳沃德县,黑人被告“相比白人被告更容易被判定为具有更高的再犯风险”。最近英国巴斯大学的计算机科学教授Joanna Bryson的研究强调,即使是“最复杂的”AI也会继承设计者的种族和性别偏见。

此外,为什么要把决策工作部分分流给一个由个人设计的算法?我们为什么要费心选择同辈组成陪审团?法律标准从来就不是完美无缺的,而是我们作为人所允许的最大能力。我们可以犯错,但随着时间推移和经验累积,我们会知道如何不再犯错,不断精炼这个系统。

而Compas和类似的系统代表的是法律系统的“黑箱子”。必须坚决反对。法律体系依赖于信息的连续性,透明性以及回顾性。我们不想要一个鼓励AI公司向底线竞争提供尽可能快速廉价和排他产品的司法系统。某些AI观察员可能已经预见到多年以后可能会这样,但其实已经这样了。真是糟糕的想法。

开发开源、可检查可评论的Compas是一种改进方法。不过,在将部分责任分流给算法之前,我们必须保证首先提升司法系统的标准。AI不应成为不作为的接口。

虽然还需要向AI投入大量的资本,但确实存在很多不错的机遇。如果我们正确使用AI,保证能惠及大众而不仅仅是巩固上层利益,就能把很多事情变得更好。

针对上述问题我目前也没有完美的解决方法。但我知道要把AI用在法律中,就必须要问会用在什么方面、用于什么目的以及会受到怎样的监督。在明确回答这些问题之前,要秉承慎重原则。

本文译自 conversation,由译者 CliffBao 基于创作共用协议(BY-NC)发布。Christopher Markou


给这篇稿打赏,让译者更有动力
支付宝打赏 [x]
您的大名: 打赏金额:

4.5
赞一个 (11)

TOTAL COMMENTS: 29+1

  1. gongfeng
    @3 months ago
    3458719

    人类也有冤案,如果都是冤案,你愿意选人类判的还是AI判的?

    [15] XX [7] 回复 [0]
  2. 3458726

    @gongfeng: 我选人类判的,人类判的比较容易挑出毛病。AI。。。别到时候是AI设计AI,出了毛病都不知道如何解决。

    [29] XX [7] 回复 [0]
  3. 3458727

    @gongfeng: 不判怎么知道是冤案。难道法官脑门儿上贴了一纸条儿:丫长得真猥琐,待会儿我要冤死这孙子。

    [26] XX [1] 回复 [0]
  4. 3458728

    抽奖已经全是电脑AI说了算了

  5. 3458730

    有个电影叫,少数派报告
    以前佳片有约演过的~

    [10] XX [1] 回复 [0]
  6. 3458731

    今天不是你招供就是断闸.jpg

  7. 3458736

    最后发展成 Psycho Pass 那样?

    [16] XX [3] 回复 [0]
  8. gongfeng
    @3 months ago
    3458737

    @石川:
    那就假设你被高位存在造物神托梦,告诉你你十年之后必有一冤案,命中注定无法改变,但你今天可以选是人类判的还是AI判的。
    ——我对于无视“如果”的人总是很有办法(笑)

  9. echaozh
    @3 months ago
    3458742

    Weapons of Math Destruction这本书就讲了这个问题,有兴趣的同学可以看看

  10. 3458744

    @gongfeng: 然而这个“如果”仍然被“事实”无视了:既然你已经说了是必然触发事件,那么基于人类没有自由意志(本来这只是一种可能,现在被你的必然触发事件前提给限定成事实了),这件事无论重复多少次,那么我的选择以及事件的结果都是固定且必然的,就算重复一万次选择页不可能改变,那么我的选择是没有意义的。该是冤案还是冤案,本来不是的永远不是。

  11. 3458763

    去他妈的AI吧。从早到晚各种媒体曝天盖地的报道,够了。

  12. 装模作样芝麻
    @3 months ago
    3458783

    那也比陪审团制度好

  13. 被封印的ID
    @3 months ago
    3458786

    少数派报告

  14. 3458789

    少数派报告是通过先知,不算AI吧。要说最像的应该是心理测量者了

  15. 3458791

    能够挑出毛病证明人类判错的机率估计会是AI的数以十倍计,天下有多少柯洁多少李世石,但任一台电脑都有变成阿法狗的基础,只有性能合适,任一台电脑都是阿法狗,既然如此,对人类的守残抱缺其实不过是情怀而已

  16. 直立行走猪
    @3 months ago
    3458820

    简单来说就是AI缺乏可控性,没有责任能力。万一ai犯错了,没人来承担责任。

  17. 日狗狂魔
    @3 months ago
    3458847

    大陆法系可行啊,因为一切按条款办事。只需要检索适用刑期,加上以往犯罪记录和法官评定,综合等分

  18. 3458936

    插画很有创意啊。这东西叫獬豸吧?

  19. compete
    @3 months ago
    3458972

    ai不会腐败啊,不能像美国律师那样做社会蛀虫啊。所以会被既得利益者大规模抵制是很正常的。
    可悲的是,受到主流反智主义影响,大部分民众把科技视为猛兽,相信剥削他们的资本家,排斥不断提高他们生活水平的科技发展。
    有科学研究发现,当司法权利掌握在部分人里时,这部分人会腐败。如果有其他机构监督这部分人,则双方会一起腐败。只有当全部人都参与进入时,才不会发生腐败(而由于法律的高门槛,这是不可能的。)而ai就是根治腐败问题的一个希望。
    真实生活中的ai与电影里完全不同,一个重要的一点是,ai是靠人编写的而不是自由思考的。现实中的ai问题是与编写者之间人与人的问题,而不是什么遵循奇怪机械逻辑的可怕怪物。

    [11] XX [5] 回复 [0]
  20. 3459023

    少数派报告嘛

  21. 3459024

    @solar: 主要是形式,实现手段差一点就差一点。

  22. 3459073

    那,谁来审判AI呢

  23. 毛茸茸
    @3 months ago
    3459105

    黑人被告“相比白人被告更容易被判定为具有更高的再犯风险”。这估计是根据经验得出来的模型吧?所谓”AI也会继承设计者的种族和性别偏见”只不过是白左为了表示政治正确罔顾事实。

  24. 3459177

    人判和机器判其实都一样啊,都是跑一套程序,人判也不会更人性,机器判也不会更加冷酷。判猥亵就是没有性器官接触,强奸就是有性器官接触,轮奸就是好多不同的性器官接触…很难想到其中的区别。

  25. 3459189

    @路过: 其实,这东西叫大公鸡…

  26. 分秒不争
    @3 months ago
    3459197

    法律公平公证要透明度与公开,而ai的算法如何运作只有少数人知道和控制,况且ai审判之中ai的合法性与代表哪些人的利益难说。正如文章所说ai算法必须开源向大众公开,这是前提。人类错了有人负责,ai错了负责归谁人?

  27. 3459235

    插图点赞

  28. gongfeng
    @3 months ago
    3460197

    @石川: 打歪话题?可惜这招对大部分正常人无效。
    看清楚,问题不在是不是冤案,问题在冤案的起因是谁。
    其实我想问题,你那么关心是不是冤案为什么特意回我的回复?找茬吗?

  29. 3462082

    AI会参考历史判例,很公正,基本上没毛病

发表评论


24H最赞