主页 > 经典

AI│走入未来的智慧城市,机器人真的可以预测犯罪吗?

时间:2019-12-07 来源:NIEBURG丽堡格
AI│走入未来的智慧城市,机器人真的可以预测犯罪吗?

及解决之道

遭遇的法律问题

人工智能时代

A

I

AI│走入未来的智慧城市,机器人真的可以预测犯罪吗?

开栏语

AI正在以无法想象的速度入驻我们的现实生活。在AI以几何级速度发展的当下,法律又该有何作为?

我们邀请中国社会科学院研究人员、北京大学法学博士后、首位研究法律与人工智能交叉问题的学者杨延超主持《AI视界》栏目,他将携其新作《机器人法——构建人类未来新秩序》,为读者全面阐述AI时代遭遇的法律问题及解决之道。

AI│走入未来的智慧城市,机器人真的可以预测犯罪吗?

人们经常能看到警察在街上巡逻,其目的是预防犯罪。如果机器人可以提前告诉人们在一座城市的某地将会发生犯罪,那么,世界会怎样?

研究人工智能的专家们大胆幻想,是否能用机器人预测犯罪?我在实验室做了大量实验,试图让机器人寻找犯罪与城市发展过程中各个要素的关系,从而让机器人准确地预测犯罪,让犯罪还没有产生就已死亡。

01

机器人绘制“犯罪地图”

基于犯罪与各种要素的内在联系,用机器人完成犯罪预测在理论上是可行的。

我在实验室把这项研究称为“犯罪地图”。通过机器学习,让机器人对一座城市未来即将发生的犯罪做出预测并体现在“犯罪地图”中。

警方依据“犯罪地图”,可以完成警力的最佳布控,有利于实现警察资源的最优化配置。由此,“犯罪地图”将是未来智慧城市的重要组成部分。

在缺乏人工智能犯罪预测的情况下,警力资源的布控难免会具有一定的盲目性。最为常见的情况是,当事人报案后,警方才会确定重点聚集警力资源的时间和地点,警力资源更多地体现在抓捕犯罪而并非预防犯罪。

机器人会考察嫌犯的受教育程度、诚信记录、年龄、收入、职业、是否为累犯等情况,最终对其社会危害性做出判断。

美国法院广泛使用一套名为Compas的软件,根据一名嫌犯的年龄及犯罪记录等资料,评估一名嫌犯再次犯案的机会,供法官判定其刑期或是否给予假释作参考。在过去20多年,美国的法院一直在使用Compas软件,协助处理超过100万宗案件。

同时,有人提出,机器人预测为“法律面前人人平等原则”带来前所未有的挑战。

AI│走入未来的智慧城市,机器人真的可以预测犯罪吗?

在机器人预测社会危害性的场景中,机器人会综合考虑被告人此前的各种表现,对其社会危害性进行综合认定。传统的形式平等正在被大数据语境下的算法平等所取代。

对一个人的量刑,除了本案的事实,还需要综合考虑本人此前的要素。在人工智能时代来临之前,这种考量被认为是非正义的,法官甚至会面临“枉法裁判”的责难。

在缺少大数据和科学算法的情况下,这种考量的科学性无法保障。彼时,将案外因素拉入其中,无法保障审判结果的公正。

因此,法律的平等原则被严格限制于被告在本案的行为范畴内,即使是对案件量刑具有重要影响的累犯事实也被严格限定在法定期间内。

大数据和人工智能的出现,让机器人对于案外因素的考察成为可能。具体而言:第一,它是机器人基于大数据和机器学习最终完成的,考虑案外因素旨在最大程度上实现实质公平;第二,它是机器的运算结果,在最大程度上保障科学性的同时,避免了人为主观性的问题;第三,通过权重设置,让案外因素虽影响本案,但会被限制在合理的范围内。

02

机器人预测对被告人的挑战

2013年,美国威斯康星州发生了一宗偷车案。事后警察找到该车,并在车上拘捕了艾力·罗米斯和他的朋友。

原本偷车案并不算严重,但Compas软件却将罗米斯评估为极有可能再犯案的高度危险人物。因此,该州拉克罗斯市法院判处罗米斯长达8年6个月的刑罚。

罗米斯不服刑期上诉,指Compas是黑箱作业,有违公平原则;但州法院认为,即使不使用该软件,判刑仍会一样,并判其败诉。

机器人的评估结论一旦作为法官裁判的参考因素,评估结论的公正性便成为律师辩护的问题之一。律师会想尽办法论证这一结论的不科学性或不公正性。在此,辩护律师的重点并非推翻这个评估结论,犹如在罗米斯案中,州法院给出的回复是,即使不用该评估软件,判刑仍会一样。

AI│走入未来的智慧城市,机器人真的可以预测犯罪吗?

事实上,机器人的评估结果仅在法官的头脑中发挥作用,而并非判决的法定依据。

因此,机器人关于社会危险性以及再犯罪的评估与鉴定结论并非同一概念,前者发挥的是对法官的影响力,后者则是法院作出裁判的法定依据。但法院也未必会将机器人的评估结果写入裁判文书,只要它对法官发挥了影响力,法官有可能在法定的裁判范围内作出偏重的量刑。

在机器人做出对被告人不利的评估结果时,律师辩护的方向只能是想办法说服法官,尽可能不相信机器人的评估结果。

03

机器人预测VS歧视与偏见

机器人经过对以往大数据的学习预测社会危害性,在实现运算时,各个要素所占的比重会有所区别。

比如,A民族的暴力犯罪率最高。那么,在对社会危害性预测的运算中,如被告人恰好是A民族的,预测分值自然会对其产生种族歧视与偏见。

这种歧视与偏见会给特定群体带来社会声誉的困惑。大数据形成的结论,往往是阶段性的结论甚至可能附加很多条件。但是,这种数据统计结果却极有可能被作为一种确定的结论流传,这对于特定群众的社会声誉将造成严重损害。

AI│走入未来的智慧城市,机器人真的可以预测犯罪吗?

算法歧视还有可能导致个案的不公平。在某项研究中有一个例子显示,一名白人男性与一名黑人女性在街上看到没有上锁的自行车和滑板车,并将其骑走。很快,他们被警察逮捕。

算法对这两个人未来犯罪的风险进行了预测。

对于黑人女性来说,她之前在四起涉嫌未成年人轻罪的案件中被处罚,算法判断结果认为她的风险非常高,给出了8分的评级;而对于白人男性,尽管之前他曾经有过两次持械抢劫的行为,还有一次持械抢劫未遂,但是,算法判断结果却给了他一个比较低的评级分数——3分。

颇为有趣的是,很多年后,这位黑人女性并没有再犯罪,反而是这位之前被算法评价为犯罪风险相对较低的白人男性又有一次比较严重的盗窃罪行。

为有效应对算法的歧视和偏见,未来,我们有必要设立“代码审计”机构。该机构将被视为公众信赖的第三方监管机构,一旦公民或单位基于算法的歧视与偏见主张权利时,基于委托或者法院的指定,代码审计机构会对涉及的机器人算法进行全面审计,确认其代码算法是否涉及歧视与偏见。最终,被确认涉及歧视与偏见的代码企业还将面临处罚措施。

AI│走入未来的智慧城市,机器人真的可以预测犯罪吗?AI│走入未来的智慧城市,机器人真的可以预测犯罪吗?

“超”观AI——

智能AI:Compas

Compas是一个由私营企业编写、能帮助司法人员做出判断的智能AI。它通过向被测人员询问137个问题(如你在学校多久打一次架、你有多少朋友非法使用药物、你受过的最高教育是什么等)以及搜索被测试者曾经的犯罪记录,经过该公司设定的复杂算法得出一长串数据。其中,包括被测试者的孤僻程度、犯罪型人格的得分、性格稳定度以及最重要的——被测试者的“危险指数”,即被测试者未来再次犯罪的可能性。

文字:来源法律与生活杂志2019年1月上半月刊

照片:来自网络

关于“它”

AI│走入未来的智慧城市,机器人真的可以预测犯罪吗?

书名:《机器人法:构建人类未来新秩序》

作者:杨延超

出版时间:2019年3月

出版社:法律出版社

ISBN:978-7-5197-2777-2

这是一个更好的时代,也是一个更坏的时代。无论你是否喜欢,我们都将迎来AI时代。无人驾驶汽车的应用、区块链的诞生……都会成为这个时代的注脚。此刻,法律人该如何站在法律的视角看待AI?法律该如何应对AI?国家是否有必要尽快完成机器人的相关立法?

中国社会科学院“创新工程”执行研究员、HOW机器人实验室创始人、北京大学知识产权博士后、中国法学界首位研究法律与人工智能交叉学科的法律学者——杨延超,历经十年时间,在这一领域潜心研究,并将其研究成果汇成此书,旨在寻找解开这些问题的密匙。

扫描下方二维码

即可选购该书(* ̄∇ ̄*)

AI│走入未来的智慧城市,机器人真的可以预测犯罪吗?AI│走入未来的智慧城市,机器人真的可以预测犯罪吗?

更多关于图书介绍

点击“阅读原文”