“还有 30 秒。”汤姆·克鲁斯扮演的未来警察跳下直升机后,耳边响起同事的最后一次提醒。
此刻,一位男子在卧室里拿起床头的剪刀,面前是他出轨的妻子。在他来得及做任何事之前,一众警察冲进屋子,将他按住。
“看着我,看着我”汤姆·克鲁斯用虹膜识别设备扫描了男子的眼睛,“就是你了,霍华德·马克思。我要以‘即将谋杀罪’逮捕你,你本来要在 4 月 22 日,也就是今天 8 点 04 分谋杀你的妻子。”
“但我什么都没做!”男子辩解道,但警方已经铐上他的手腕。城市里的城市谋杀案数量依然保持为零。
这是斯皮尔伯格 2002 年的科幻电影《少数派报告》,片中的警察可以预测犯罪细节,提前赶到现场,制止犯罪。
今天还没有人能精确预测未发生罪案的细节。但预测哪里会发生罪案、谁更有可能犯罪是已经被用在执法、乃至定罪上。
人工智能已经在决定数十个城市的警察去哪儿巡逻、找谁“聊天”
今年 5 月,芝加哥警局局长 Jonathan Lewin 开了一个人工智能的沟通会:警局在城市里安装了可以检测枪声的声音感应器收集数据,加上城市路边的摄像头数据,通过机器学习算法做了一个“罪案预测系统”,能预测抢劫、枪击案的罪案地点,还能预测什么人可能会犯罪,让警方可以提前找嫌疑人聊聊天。
现在芝加哥警员巡逻时,会在手机和平板上用这么一个应用:地图上显示着一个个红色的小方块,那里就是下一次犯罪可能发生的地方。
不同犯罪行为的热点图,来自 PredPol 公司的软件
警方使用这些技术已经有很多年了,而原因也很好理解:效率。
著名犯罪学家 Lawrence W. Sherman 曾总结过“降低犯罪的八个原则”:警察的数量更多,回应报警电话的速度要更快,增加更多的随机和有目的性的城市巡逻,都能减少犯罪的发生。
现实当中,地方警局的人手和工作时间都是有限的。而算法和机器学习在这当中的作用,就是帮警局提升效率。如果一个警员每天只有 8 小时的巡逻时间,到处乱走看看有没有撞见罪犯,并不是一个很高效的行为模式。
洛杉矶警局的警长 Charlie Beck 说法也是类似,“我要不来跟更多的经费,也要不来更多的人手。我只能把我有的资源用得更好,如果巡警能对这种技术改变看法,那么管理者也会这么做。” 洛杉矶表示,使用这套提高效率的模型,一年光一个分局就能省下 200 万美元。
芝加哥其实在 2009 年开始就在犯罪分析系统,只是最近几年,警局的开发重心,从分析到预测“地点”,再从预测地点升级到预测“嫌疑人”上。
背后有不少技术公司在帮忙。刚刚我们谈了那么多洛杉矶和芝加哥警局使用的预测犯罪的软件,背后就是加州圣克鲁兹的警力软件公司 PredPol。
最近几年,随着美国警方对于犯罪预测的需求上升,PredPol 已经快速成为全美国业务最广的犯罪预测软件公司了。
芝加哥警局表示,用了 PredPol 的算法短短几个月后,枪击案件等发生几率已经下降了 13%,预计谋杀案件的数量将降低 49%。
不仅有地点范围,还有“预测罪犯”的名单,例如附近街区最有可能犯罪的前 20 名嫌疑犯名字和照片,具体到这样的程度:“此人可能在 18 个月内有 25% 的可能性参与暴力事件。”
根据芝加哥警局透露的信息,这个名单目前有 400 人。上榜的人不一定有犯罪史:住在罪案高发地地区,或者朋友、家人有人犯罪……都是这个名单背后算法考虑的因素。
警方还会提前给这些算法挑选出来的“未来罪犯”提前做心理建设。Jonathan Lewin 把这套提前干预犯罪的机制叫做“定制化提醒”,这提醒包括了提前去找嫌疑人聊天。
如果这位嫌疑人不同意继续要留在算法设定的高犯罪地区,警方就会发出警告,“如果你在此区域犯罪,你可能会被处以更严重的惩罚。”
怎么定罪,人工智能也会参与其中
2013 年,艾瑞克·卢米斯因为偷车被美国威斯康辛州的法院判处了 6 年的有期徒刑。
他偷来的车曾经参与过一场枪击案,车尾箱里还有枪。警方原本以为是人赃并获,结果查清楚是误判,卢米斯其实并没有参加持枪犯罪,只是刚好偷了一辆有过犯罪记录的车。如果只是犯了偷车,根据威斯康辛州的法律,刑期最多是入狱三年,然后还有三年是出狱监视。
但法院还是给卢米斯判了更重的刑罚。法庭的量刑参考的是一套名为 COMPAS 的人工智能算法。这个十分制的“打分”机制被美国司法部用于判断有过犯罪纪录的人未来犯罪的几率。
卢米斯在偷车之前,曾经因为性犯罪入狱。上次入狱的时候,COMPAS 算法当时给他打了一个高分。这次,这个分数被威斯康辛州法院当作参考数值了。
卢米斯提起上诉,要求公开算法是对他评分的机制,他认为评分细则里有性别等参考因素。
这个要求遭到了法院的拒绝:他们认为给罪犯做打分分析是自从 1923 年就开始有的事情,而且这个算法是开发方 Northpointe 公司的知识产权,所以不能公开。而对于卢米斯的考量除了算法还有别的机制,所以是公平公正的,就在今年 5 月 23 日,法庭驳回了上诉,维持原判。
如果在美国犯罪进了监狱,COMPAS 这个人工智能算法很可能就会接管你的个人数据。入狱者填写一份个人情况调查问卷,综合犯罪的严重程度,COMPAS 会计算出一套“未来罪犯”的评分机制。为避免歧视,这份问卷里并没有问种族、收入等敏感的维度,但会有这么一些类似问题:
你在什么地方居住?
你的教育程度?
你中学之前有坐过飞机旅行吗?
你的亲人、朋友有人曾经参与犯罪吗?
去年,非盈利调查机构 ProPublica 从警方处拿到 1.8 万 COMPAS 评分数据,然后做了一份调查报告,追踪这些人在两年来的再犯罪的记录。
最后出来的结果是:
穷人更容易犯罪;
教育程度低的人更容易犯罪;
黑人更容易再犯罪;
男性更容易犯罪。
从统计数字看,这些可能都是事实。但这样的数据被反过来用在判断一个个体未来犯罪的可能性,并就此量刑的时候,就有问题了。
这和前段时间被开除的那位美团点评人事在招聘信息里写的“不要黄泛区及东北人士”没什么本质区别。
在美国,COMPAS 是从 2000 年初就开始在全国的司法机构使用,这个算法已经修改到第四版。在各个州法官量刑或者警察盘查疑犯的时候,会把 COMPAS 分数作为参考。
2014 年,时任司法部长 Eric Holder 公开表示,美国法庭依赖算法来判定罪行,预测再犯罪是有风险的。Holder 表示,美国的法官量刑过于依赖这套评分算法。
看起来公平的算法,背后依然受设计者的偏见影响
有一个关于科研的比喻,说科学家在研究新东西的时候容易过度分析自己已经有的信息,强行从中获得结论,进而忽视了未知因素的影响。
一个人在室外停车场丢了钥匙,他首先会去看路灯照耀下的路面。
这不是因为钥匙更可能丢在路灯下,而是因为这里比较容易找。
人工智能算法判断一个人的犯罪可能也差不多。
MIT 教授 Ethem Alpaydin 曾经这么解释现在最新的机器学习的原理:
以前你需要知道特定的数据要来实现什么,于是雇佣一个程序员来编写程序。机器学习就是,现在计算机自己学会处理和识别这些数据,程序也是自己写的,然后导出你所需要的结果。
要做一个判定谁是罪犯的系统。首先,是这个机器学习算法的设计者在判断“什么样的人更容易犯罪?”然后再把不同原因分解开来,去搜集数据。
一个人犯罪的可能性有千千万万,而算法设计者输入进去的维度,就好像路灯下的路面。计算机强行在设计者觉得重要的维度里判断一个人犯罪的可能性。
更糟糕的是,今天的机器学习算法基本是黑盒子——输入了数据,等待输出结果。但当中机器是怎么识别的,即使是算法的设计者,也不能肯定。
上个月,上海交大教授武筱林和博士生张熙的论文引来争议。他们的论文《基于面部图像的自动犯罪性概率推断》用机器学习算法和图像识别技术扫描了 1856 张中国成年男子的身份证照片,让算法来判断这个人是不是罪犯,称成功率达到了 90%。
武筱林和张熙还总结了这些罪犯的面相特点:内眼角间距比普通人短 5.6%,罪犯的上唇曲率不一样,罪犯的鼻唇比非罪犯角度小19.6%,罪犯跟普通人相比,面部特征来的更明显。
这篇文章在发布之初就惹来了一些种族歧视的争议。5 月初,Google 和普林斯顿大学的三位研究人员写了一篇反驳文章,名为《相面学的新衣》。他们在文章中认为武筱林的研究方法跟 150 年前的意大利的“医学相面术”类似,只是使用了机器学习算法:
“1870 年意大利医生龙勃罗梭(Lombroso) 打开了意大利罪犯维莱拉尸体的头颅,发现其头颅枕骨部位有一个明显的凹陷处,它的位置如同低等动物一样。这一发现触发了他的灵感,他由此提出‘天生犯罪人’理论,认为犯罪人在体格方面异于非犯罪人,可以通过卡钳等仪器测量发现。龙勃罗梭并认为犯罪人是一种返祖现象,具有许多低级原始人的特性,可被遗传。”
来自 Google 的研究者 Blaise Aguera y Arcas 解释,神经网络算法“判断”图片的方式跟人不太一样:给数百万个学习参数加不同的权重。比如让算法判断一张图片是来自什么年代,机器学习很可能学到了发现各种细微线索,从比较低层次的“胶片颗粒和色域”到衣服和发型,乃至车型和字体。
所以机器学习到底从这 1000 多张身份证照片中学到的规律是什么?
不一定是罪犯的面部都有什么独特的特征,可能是图片的颗粒度,也可能是其他一些共同特点——例如衬衫。例如,武筱林论文中的 3 个“非罪犯”图像中都穿着白领衬衫,而另外 3 名被判别为“罪犯”的都没有。当然,只有 3 个例子,Blaise Aguera y Arcas 写到,“我们不知道这是否代表整个数据集。”
而在我们都不知道机器学习的做判断的方式时,作为算法的设计者,我们人类给出的“假设”,以及我们给出的数据,可能决定了算法的走向。
《相面学的新衣》的第三作者,普林斯顿大学法学系教授 Alexander T. Todorov 告诉《好奇心日报》,“有些人认我们的文章是在攻击武筱林,但并不是有意如此。我们想做的是展示这个结果并不如他们展现的那样‘客观’,武筱林进行的假设是未经检验的。”
这事情在 1980 年代也发生过——对,今天每个科技公司都在炒的机器学习那时候就有了。
当时,美国军方想要设计一套算法,想让计算机自动从照片里分辨美苏两国的坦克。
经过一段时间训练他们的算法,识别准确率已经很不错了。
但后来工程师们发现,这不是因为计算机真的认出了两国坦克的设计不同。
事实上计算机认为像素更高的图片等同于“美国坦克”。
这是因为那会儿还在冷战中,输入资料库的照片里,俄罗斯坦克的照片更模糊。
“新技术有为善和作恶的潜在力量。如果你的假设没有被仔细考证,那么机器学习技术只会带来更多的不公平和加速现有的不平等。” Todorov 用这句话结束了我们的采访。
预测犯罪的算法也会影响到日常生活
“你雇用的人,真的可以信任吗?”
今年 5 月,在加州桑尼维尔一个金融科技(FinTech)创业分享会上,侯赛因·何塞从这个问题开始,介绍起自己的公司 Onfido。
侯赛因·何塞在现场用图片演示,可以用算法来帮企业确定雇佣的人是否“靠谱”。
使用方法和滴滴司机上传拿着身份证的照片的过程有点类似,让人拿着证件拍一张照片。
之后 Onfido 会扫描雇员照片,做人脸识别、背景调查,几十秒之内可以确认这个人是不是他声称的人、有没有犯罪前科、是不是非法移民。
Onfido 最开始也是做 Uber 的生意,但自从去年开始 Uber 增长放缓,侯赛因就开始让公司转型,从识别共享经济的顾客有没有犯罪记录,变成了给银行做贷款人的背景调查。“其实我们更像是 RegTech 公司(政策科技公司)了,因为数据要跟政府有一定合作。”
Onfido 去年一下拿了接近 3000 万美元,最新投资者有红杉、Saleforce。他们的竞争对手 Checkr 的投资者来头更大,Google Venture、YC、Accel……去年已经拿了 5000 万美元了。
Onfido 的网站上,识别之后数据会用在什么地方并没有清楚的解释。雇主获得信息之后怎么办也不在它关心的范围内。
我在现场问了侯赛因数据隐私保护以及怎么获取第一笔数据,他的回答却很含糊:跟银行、政府等本身拥有大量数据等机构合作是最快的训练算法的方式,他们也想要让那些普通人更快通过审核,获得他们想要的贷款和工作机会。
更多的,他怎么也不愿意说了。
这样的谨慎态度能在许多销售犯罪分析相关产品的公司身上看到。
给罪犯打分的 COMPAS 算法背后的 Northpointe 公司在被《纽约时报》、ProPublica 等多个媒体报道后,改了新品牌 Equivant 重新卖服务。
今年 5 月,在美国加州山景城举行了一场名为 SVOD 的创投大会。
刚离职没多久的人工智能专家,前百度人工智能实验室负责人的吴恩达在台上说:“人工智能就是 21 世纪的电力设施,抓住这个新技术的公司,将会在下一轮的竞争中跑得更快。”
一个一个初创公司走上台,介绍自己的项目。当中有给企业做脸部识别方案的、做语音识别系统的。台下投资人们抛出一个又一个问题。
“你们识别率有多准?”
“你们考虑怎么退出?”
……
没人问到隐私、公平、数据安全。
大会结束后,吴恩达对《好奇心日报》谈到了自己的对于监管人工智能的态度,这也是业内的典型态度:“我觉得现在太早了。技术还没完全发展起来,太多设限会阻碍发展。”
来源:好奇心日报