算法本应减少刑事司法中的偏见——真的吗?

Ngozi Okidegbe是澳门威尼斯人注册网站研究刑事司法系统中的技术如何影响种族边缘化社区的专家,他说,要真正实现刑事司法系统中算法的承诺,需要对它们的用途进行彻底的重新构想。
算法本应减少刑事司法中的偏见——真的吗?
波士顿大学的Ngozi Okidegbe表示,数据可能会造成歧视。他是首位获得法学院和计算机与数据科学学院双重任命的教授
算法本应重塑美国的司法体系。它们被认为是对风险、犯罪和累犯进行冷静的、计算机驱动的计算,在从警务到保释、判决到假释的所有领域都得到了应用,目的是为了消除由易犯错误、有偏见的人类做出的往往不平等的决定。
但是,到目前为止,情况并非如此。
“从理论上讲,如果预测算法比决策者的偏见要小,那应该会减少黑人、土著人和其他政治边缘化人群的监禁。波士顿大学摩尔曼-西蒙跨学科职业发展法学副教授、计算机和数据科学助理教授恩戈齐·奥克德格贝说。她是该大学第一个在数据和法律领域担任双重职位的人,她的奖学金深入澳门威尼斯人注册网站研究了这一交叉领域,澳门威尼斯人注册网站研究了在刑事司法系统中使用预测技术如何影响种族边缘化社区。
事实上,这些群体的监禁率几乎是白人的四倍。根据美国司法部下属司法统计局的数据,2021年(可获得最新数据的年份),每10万名成年人中有1186名黑人被监禁在州或联邦监狱,每10万名成年人中有1004名美国印第安人和阿拉斯加原住民被监禁。与此相比,同年白人的入狱率为每10万人中222人。
在最近的论文中,Okidegbe澳门威尼斯人注册网站研究了算法在这些不平等中的作用,以及技术和法律的相互交织的后果,包括澳门威尼斯人注册网站研究保释决定背后的数据。
波士顿大学计算与数据科学副教务长Azer Bestavros表示:“Ngozi在波士顿大学法学院和计算与数据科学学院的联合任命再及时不过了,因为它说明了检查和审查当今社会技术和人在循环中的人工智能系统和技术的重要性。”“这种审查不仅可以让我们重新构想这些系统的设计和部署,还可以重新考虑这些系统将在其中运行的道德、法律和公共政策框架。”
放大偏差的算法
在最基本的形式中,算法是解决问题的捷径。工程师可以训练计算机消化大量数据,然后为复杂问题提供简单的解决方案。例如,Spotify利用算法,根据听众之前听过的歌曲,向他们推荐公司认为他们可能会喜欢的歌曲。一个计算机模型需要的数据越多,它的结果就应该越细致、越准确。
但是越来越多的学术澳门威尼斯人注册网站研究(包括okidegbe的澳门威尼斯人注册网站研究)和新闻报道表明,建立在不完整或有偏见的数据基础上的算法在得出结果时可以复制甚至放大这种偏见。例如,如果你的孩子对《小猪佩奇》(Peppa Pig)的痴迷泄露到你推荐的Spotify播放列表中,这并不是什么大问题,但在其他情况下,这可能会造成毁灭性的影响。
奥基德贝说,以法官为例,他会收到一份由算法生成的累犯风险评分,这是一份澳门威尼斯人注册被定罪罪犯的报告的一部分。这个分数告诉法官这个人在不久的将来再次犯罪的可能性有多大——分数越高,一个人成为惯犯的可能性越大。法官会考虑这个分数,并给累犯分数高的人分配更多的监禁时间。情况下关闭。
非营利性新闻机构ProPublica的一份庞大的报告发现,由于这些分数给人的感觉是公正的,它们对使用它们的法官来说很有分量。实际上,这些分数既不公正,也不牢靠。ProPublica发现,全国法院使用的一种特定系统对黑人的猜测错误率是白人的两倍:它将没有再犯罪的黑人错误地标记为有再犯罪风险的黑人的两倍。
在《康涅狄格法律评论》(Connecticut Law Review)最近的一篇文章中,Okidegbe追溯了这种不一致的根源,并指出了一个三管齐下的“输入问题”。
首先,她写道,司法管辖区对他们是否以及如何使用审前算法不透明,并且经常在没有咨询边缘化社区的情况下采用它们,“尽管这些社区受到它们的使用的不成比例的影响。”其次,这些社区通常被排除在构建此类算法的过程之外。最后,即使在公众可以对这些工具的使用提出意见的司法管辖区,他们的意见也很少改变任何事情。
从种族正义的角度来看,使用这些算法系统还会带来其他危害。支配我们是否使用这些算法以及如何使用这些算法的范式是相当技术官僚的,不是很多样化。
“从种族正义的角度来看,使用这些算法系统还会带来其他危害。支配我们是否使用这些算法以及如何使用这些算法的范式是相当技术官僚的,不是很多样化。凯特·克劳福德注意到了人工智能的‘白人问题’,”奥基德贝说。她指的是微软首席澳门威尼斯人注册网站研究员、白宫人工智能与社会研讨会的联合主席凯特·克劳福德,他创造了这个词,用来描述在人工智能产品和公司的创造中白人男性的比例过高。
Okidegbe说,从一开始,算法系统就排除了种族边缘化和其他政治上受压迫的群体。
“我一直在澳门威尼斯人注册网站研究是否以及如何使用算法的决策权,以及它们用来产生什么数据。它非常排斥那些最有可能受到影响的边缘化社区,因为这些社区不是中心,在做出这些决定时,他们往往甚至不在谈判桌上。”“这是我认为转向算法与种族正义项目不一致的一个方面,因为它们维持这些社区边缘化的方式。”
权力转移
Okidegbe说,除了产生对边缘社区造成不成比例伤害的有偏见的结果外,用于训练算法的数据可能是混乱的、主观的和歧视性的。
“在我的工作中,我一直在与我认为是一种误解作斗争:即算法只基于定量数据构建。它们不是,它们也是用定性数据构建的,”她说。Okidegbe说,计算机工程师和数据设计师将与政策制定者会面,找出他们的算法应该解决什么问题,以及他们应该从哪些数据集中提取数据来构建算法。
例如,在刑事和法律环境中,这可能意味着与法官合作,确定什么可以帮助他们判处监禁。再说一次,数据工程师不太可能在早期信息收集过程中与被监禁的人见面。相反,正如Okidegbe在最近一期《康奈尔法律评论》(Cornell Law Review)的一篇文章中所写的那样,审前算法中使用的大多数大型数据集都是建立在“刑事知识来源”(如警方记录和法庭文件)的数据基础上并对其进行训练的。
“这就提出了这样一种说法,即这些社区对更广泛的问题没有任何知识可以补充,”奥基德贝说。
Okidegbe说,要在刑事司法系统中真正实现算法的承诺——承诺它们使程序比人类更统一,更少偏见——需要对整个结构进行彻底的重新思考。这是她鼓励学生在塑造法律和刑事司法的未来时考虑的问题。
“这意味着实际上要考虑边缘化和政治上受压迫的社区的知识,并让它告诉算法是如何构建的。这也意味着这些社区对算法技术的持续监督。我所主张的需要建立新的制度结构,需要在使用这些算法时,改变我们对谁是可信的、谁应该掌权的观念。如果这太过分了,那么我们就不能同时称其为种族正义项目。”
评论与讨论
波士顿大学缓和评论,以促进知情的、实质性的、文明的对话。辱骂、亵渎、自我推销、误导、语无伦次或离题的评论将被拒绝。版主在正常营业时间(EST)有澳门威尼斯人注册,只能接受用英语写的评论。统计数据或事实必须包含引文或引文链接。