问专家——什么是算法问责制?

作者:吉娜·曼蒂卡

人工智能(AI)技术可以决定你买房或租房、就业、获得贷款审批等方面的能力。但许多驱动人工智能的算法是有偏见的,可能会导致歧视性的商业行为。本月早些时候,联邦立法者向国会提交了《2022年算法问责法案》,试图减少人工智能系统中的不平等现象。

该法案要求使用人工智能技术的公司评估其算法的风险,减轻负面影响,并向联邦贸易委员会(FTC)提交报告。联邦贸易委员会将监督执法,并发布有关公司用来增加问责制和透明度的算法的信息。

我们向哈里里澳门威尼斯人注册网站研究所(Hariri Institute)人工智能澳门威尼斯人注册网站研究计划(AI Research Initiative)的两位专家——计算机系助理教授德里·维贾亚(Derry Wijaya)和布莱恩·普卢默(Bryan Plummer)询问了算法问责制以及法律是否有助于减轻人工智能偏见。

有哪些算法偏见的例子?

Derry Wijaya,人工智能与教育倡议联合主任,计算机科学助理教授。

维加亚:算法偏见是计算机系统的系统性和可重复的决策,造成不公平、歧视或不公平的结果。算法偏见的例子是使负面刻板印象持续存在的算法——例如,情感分析系统将较低的情绪和更多的负面情绪分配给带有非裔美国人名字的句子,算法会产生意想不到的后果,审查澳门威尼斯人注册特定身份群体的讨论例如,毒性检测算法将包含残疾的评论分配为有毒,以及造成伤害和潜在严重后果的算法-例如,面部识别算法错误地将某人标记为罪犯并吊销其驾驶执照。

Bryan Plummer,人工智能澳门威尼斯人注册网站研究计划核心教员和计算机科学助理教授。

普卢默:算法偏差通常指的是算法认为某个特性对做出决策很重要,而实际上并不重要。一个著名的例子是性别阴影澳门威尼斯人注册网站研究,澳门威尼斯人注册网站研究人员分析了商业上可用的机器学习模型,这些模型会拍摄一个人的图像,并试图预测他们的性别。他们发现,这些模型倾向于将任何肤色较深的人的照片预测为男性,而不管他们的真实性别。

算法问责制对你来说意味着什么?

维贾亚:算法问责制是指在某些实体开发或运营的算法做出导致不公平结果的决策时,让它们承担责任或问责的过程。

普卢默:我认为,这就把你的算法是否不公平地偏向某些人群的责任推给了那些使用算法进行决策的人。付出巨大的努力来确定有效性和识别任何无意的偏差是算法开发的关键部分,对于决定对一个人的生活产生重大影响(例如是否给某人工作或抵押贷款)尤为重要。

你认为2022年的算法问责法案会减少偏见吗?

维贾亚:是的,我相信这是减少算法偏见的一个很好的步骤。建立检查和评估偏见算法的机制的政策将鼓励在这些模型的开发和部署中减少偏见的努力。通过这样做,它将提高这些算法的透明度,并让算法的开发人员或运营商对其算法的偏见预测所造成的伤害负责。

这里存在一些技术挑战,包括决定哪些指标最适合用于评估算法偏差,以及在算法管道的情况下应该评估算法的哪一部分。还有一些实际的挑战,比如应该评估这些算法的开发还是部署。也有风险,比如这项法律是否会提高科技初创企业的进入门槛,因为对算法潜在偏见进行细致评估的成本很高。

普卢默:我希望任何精心设计的法案都能帮助那些受到算法偏见影响的人提供工具,让他们有一些追索权来推翻自己的裁决,同时确保其他人不会遭受同样的命运。这需要各方的共同努力才能取得成功,但开发确保公平对待的算法是一个有价值的目标。

政府应该让科技公司为算法偏见负责吗?

维贾亚:减轻有偏见的算法造成的危害是人工智能的一个开放澳门威尼斯人注册网站研究领域,人工智能社区越来越多地努力建立一些机制来减少偏见。人们努力为已发布的算法创建“模型卡”,这些算法记录了用于训练算法的参数、训练数据源、评估数据源、预期用途,以及模型如何在不同情况下执行。如果这是一个由政府支持和执行的法律规则,而不仅仅是基层的倡议,将会非常有帮助。

 

*为清晰起见,回答已经过编辑和浓缩。


要了解更多澳门威尼斯人注册哈里里澳门威尼斯人注册网站研究所的转型澳门威尼斯人注册网站研究,点击这里注册我们的时事通讯