我们需要加强对人工智能的防范
波士顿大学法学教授伍德罗·哈特佐格(Woodrow Hartzog)认为,目前的人工智能政策和监管太过薄弱,他呼吁国会超越他所谓的“半途之废”。
波士顿大学法学院(Boston University School of Law)法学教授伍德罗·哈特佐格(Woodrow Hartzog)表示,立法者必须抵制人工智能力量不可避免增长的想法:“当立法者直接设置护栏时,他们没有问一个存在性的问题,即特定的人工智能系统是否应该存在。”Robert Way/iStock摄
人工智能工具现在已经足够普遍,足以让立法者感受到它们的力量和危险。人们在工作、娱乐和休息时都会接触到人工智能系统。这些工具正在被用来塑造我们所看到的,我们可以选择的,以及我们在日益网络化的世界中拥有的机会。
随着越来越多的人工智能被部署,为了保持社会安全,我们将需要更强有力的规则和法规,而这些规则和法规目前还不存在。
但目前尚不清楚立法者应该如何进行。到目前为止,人工智能政策主要由行业主导的方法组成,如鼓励透明度、减少偏见和促进道德原则。无论立法者如何推进人工智能立法,有一件事是明确的:目前的这些方法至关重要,但它们只是半途而废。他们不会完全保护我们。为了将人工智能纳入法治,立法者必须超越他们,制定广泛的职责和具体的规则,以确保人工智能系统和部署它们的参与者值得我们的信任。
根据我与圣路易斯华盛顿大学科德尔澳门威尼斯人注册网站研究所的Neil Richards、Ryan Durrie和Jordan Francis一起进行的人工智能政策澳门威尼斯人注册网站研究,我最近在美国参议院司法委员会就人工智能方面的实质性法律保护的重要性作证。
那些开发人工智能的人拥有惊人的财富,他们有能力部署利用我们的数据、劳动力和不稳定性的系统。允许它们淡化现行法律或进行自我监管,不足以取代强有力的规则。
让我们考虑三种流行的人工智能半措施,以及为什么立法者必须采取更多措施。
首先,对于不透明的人工智能系统,透明度是一种流行的解决方案。但它本身不会产生问责制。即使我们能够真正理解人工智能系统的各个部分,当这些工具有害和滥用时,立法者也必须进行干预。
第二种值得称赞但不够充分的方法是企业努力减轻偏见。众所周知,人工智能系统在种族、阶级、性别和能力方面存在偏见。虽然减轻人工智能系统中的偏见至关重要,但让人工智能“公平”的自我监管努力注定要失败。说人工智能系统不应该有偏见是很容易的;很难就这意味着什么以及如何实现这一目标达成共识。此外,如果一个系统是公平的,那么它对所有人都是安全的,这是一个错误的假设。有偏见的制度只是权力被用来边缘化人们的一种症状。即使我们确保人工智能系统对所有社区都同样有效,我们所做的也只是创造了一种更有效的工具,强者可以利用它来统治、操纵和歧视我们。
第三个半途而废的人工智能措施是遵守道德原则。道德很重要,这些原则听起来令人印象深刻,但它们是法律的可怜替代品。公开承诺遵守道德是很容易的,但行业没有动力为了社会的利益而把钱留在桌子上。

那么,立法者能做些什么呢?
首先,他们必须接受人工智能系统不是中立的,必须规范它们的设计方式。人们经常认为,立法者应该避免为技术制定设计规则,因为正如俗话所说,“没有糟糕的人工智能系统,只有糟糕的人工智能系统用户。”这种对技术的看法是错误的。不存在中立的技术,包括人工智能系统。面部识别技术暴露了我们。生成式人工智能系统取代了劳动力。立法者应该借鉴现有的政策,以保护公众免受错误和有害的商业行为的影响,比如让公司对有缺陷的产品负责,或者为不公平或欺骗行为提供工具。
其次,立法者应该把重点放在限制权力滥用的实质性限制上。人工智能系统是如此复杂和强大,以至于它看起来像是在试图调节魔法。但人工智能系统带来的更广泛的风险和好处并不是什么新鲜事。人工智能系统赋予力量。这种力量以各种各样的方式被用来造福一些人,伤害另一些人。立法者应该借鉴现有的法律方法来纠正权力失衡。这包括要求广泛的、不可协商的忠诚、关怀和保密义务,以及实施强有力的、明确的规则,限制人工智能系统中的剥削性数据实践。
最后,也是最重要的一点,立法者必须抵制人工智能不可避免的观点。当立法者直接设置护栏时,他们没有提出一个存在的问题,即特定的人工智能系统是否应该存在。这就注定了我们只能半途而废。强有力的规则应包括禁止不可接受的人工智能实践,如情感识别、公共场所的生物特征监控、预测性警务和社交评分。
为了避免重蹈覆辙,议员们必须做出艰难的决定。信任和问责只有在法律为人类提供有意义的保护时才能存在。而人工智能的半措施肯定是不够的。
伍德罗·哈特佐格是波士顿大学法学院的法学教授,因其在隐私和技术法方面的工作而享誉国际。他是《隐私的蓝图:控制新技术设计之战》(哈佛大学出版社,2018年)的作者,也是《被攻破!》为什么数据安全法失败以及如何改进它(牛津大学出版社,2022)。10月25日,与Hartzog一起参加波士顿大学的Tap澳门威尼斯人注册网站研究活动,该活动将探讨负责任的人工智能、隐私、公平和问责制。在这里注册。
“专家意见”是一个以澳门威尼斯人注册网站研究为主导的意见页面,提供波士顿大学澳门威尼斯人注册网站研究人员对各种问题的评论-与他们的工作有关的地方,国家或国际问题。任何有兴趣提交作品的人都可以联系thebrink@bu.edu。边缘保留拒绝或编辑提交的权利。所表达的观点仅代表作者的观点,并不代表波士顿大学的观点。
本系列
也在
专家把
-
2025年1月28日
美国人期望社交媒体内容有节制
-
2025年1月6日
骑自行车可以使老年人更健康、更独立。这里是如何设计自行车和网络,以满足他们的需求
-
2024年10月4日
对生殖健康的双重威胁:环境污染和缺乏获得医疗保健的机会
家系列
评论与讨论
波士顿大学缓和评论,以促进知情的、实质性的、文明的对话。辱骂、亵渎、自我推销、误导、语无伦次或离题的评论将被拒绝。版主在正常营业时间(EST)有澳门威尼斯人注册,只能接受用英语写的评论。统计数据或事实必须包含引文或引文链接。