技术编辑:宗恩丨发自 思否编辑部
SegmentFault 思否报道丨公众号:SegmentFault
今年 1 月的一个星期四下午,美国人威廉姆斯在办公室里接到了底特律警察局的电话,让他到警察局自首。开始他以为这只是一个恶作剧,但随后发生的事情颠覆了他的认知。
在接到电话的一个小时后,正在开车去密歇根州法明顿山庄的他,突然被一辆警车拦住。两名警察下车,当着他妻子和女儿的面给威廉姆斯戴上了手铐。警察没跟他说为何逮捕他,只给他看了一张纸,上面有他的照片和 「重罪逮捕令」、「盗窃罪 」等字样。
随后威廉姆斯被送到了拘留中心。拍照、采集指纹和 DNA 后他被丢进监狱关押了一夜。
第二天中午两名警官把他带到审讯室,警官翻出了一张纸。是一段监控视频中的静止图像,显示一名身穿黑色衣服、戴着红色圣路易斯红雀队帽子的男子站在手表展示台前。在几分钟后那名男子盗窃了五块价值 3800 美元的钟表。
「这是你吗?」警察问。
「不,这不是我。你以为所有的黑人都长得一样吗?」威廉姆斯说。
威廉姆斯很清楚他知道,他并没有犯下任何罪行。
但他不知道的是并不是警官把它认错,而是人工智能面部识别算法将他误判为罪犯。而且他的案件可能是第一个已知的美国人因人工智能面部识别算法的缺陷匹配而被错误地逮捕的案件。
威廉姆斯含冤被捕的原因
底特律警察部门已有二十多年的面部识别系统使用历史。虽然该技术对识别白人男性的效果相对较好,但对其他人种的判断结果却不太准确,主要原因是用于开发基础数据库的图像缺乏多样性。
并且底特律警察部门使用的算法并非来自 Facebook 和谷歌等技术最为顶尖的公司,该州的技术由一家名为 DataWorks Plus 的公司提供。官方公开的数据显示,DataWorks Plus 软件包含了日本科技巨头 NEC 和总部位于科罗拉多州的 Rank One Computing 公司开发的组件。
2019 年,这两家公司的算法被纳入联邦对 100 多个面部识别系统的研究中,发现存在很大偏见,错误识别非洲裔美国人和亚洲人的面孔是高加索人面孔的10倍到100倍。
不仅是底特律,美国其他州也在大规模的使用人脸识别系统抓捕罪犯,明尼苏达州和纽约等州在使用 Clearview AI 系统。明尼苏达州华盛顿县警察在使用亚马逊 Rekognition 系统。
让人更为担忧的是 Clearview AI 违反服务条款,通过用户社交媒体获得用户照片,这表明你随手发布的一个照片就有可能成为判断你是否犯罪的线索。
麻省理工学院也研究发现,Rekognition 识别女性和黑人的正确率很低。该软件将女性误认为男性的比例高达19%。如果纳入肤色进行统计错误率更高,有31%的黑人女性被标记为男性。
显然人工智能面部识别系统并没有人们预期中的那么聪明,它距离一个「公正的执法者」相距甚远。
如何避免悲剧再次发生
专家们给出了几点建议:
- 低质量的搜索图像比如来自颗粒状监控视频的静止图像应该被禁止,目前使用的系统应该严格测试其准确性和偏差。
- 有平庸的算法,也有好的算法,执法部门应该只买好的算法。
- 开发一种新的算法供 NIST 审查,缩小了不同人口组群之间的准确性差异。
不过还有一种激进的解决办法就是放弃使用,近日 IBM 宣布退出了面部识别软件业务。微软和亚马逊也已经限制了他们与执法机构进行面部识别的能力。原因正是因为面部识别算法产生的偏见将有可能犯下巨大的错误。
上文故事的最后警察意识到了错误并释放了威廉姆斯,当地检察官也表示威廉姆斯会被撤销案件和他的指纹数据。检察官说:「我们表示歉意,但这丝毫不能弥补威廉姆斯先生在监狱中度过的时间。」
被释放后的威廉姆斯回到家中他不敢同自己的母亲和朋友提及此事,他的老板更是严厉的告诉他不能和同事谈论此事。他的小女儿现在见到他有时会脱口而出:「举起手来跟我去警局!」,而他自己深深的陷入了再一次被冤枉的恐惧中。
内容来源:
纽约时报《Wrongfully Accused by an Algorithm》
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。