我们能信任聊天技术和人工智能来做人类的工作吗?
OpenAI的新型人工智能聊天机器人上了头条,但波士顿大学行为科学家基亚拉·朗戈尼的澳门威尼斯人注册网站研究表明,我们仍然对机器学习持怀疑态度

使用提示“未来的人工智能”创建的人工智能生成的图像。由Shutterstock的人工智能图像生成器创建的图像
我们能信任聊天技术和人工智能来做人类的工作吗?
OpenAI的新型人工智能聊天机器人上了头条,但波士顿大学行为科学家基亚拉·朗戈尼的澳门威尼斯人注册网站研究表明,我们仍然对机器学习持怀疑态度
本文不是由ChatGPT编写的。这种人工智能驱动的聊天机器人——它可以用一个简单的提示生成散文和文章,进行听起来很自然的对话,调试计算机代码,写歌,甚至起草国会演讲稿——已经迅速成为一种现象。据报道,由微软支持的OpenAI开发的计算机程序仅在1月份就获得了1亿用户,被称为人工智能的突破。它明显的能力——在一项澳门威尼斯人注册网站研究中,它欺骗了受人尊敬的科学家,让他们相信了它伪造的澳门威尼斯人注册网站研究论文摘要——让专业作家感到紧张,并受到惊吓,紧急加大了自己的人工智能努力。
但是所有的炒作都被夸大了吗?波士顿大学奎斯特罗姆商学院(Boston University Questrom School of Business)市场营销学助理教授、行为科学家基娅拉·朗戈尼(Chiara Longoni)表示,我们可能都对chatgct(以及一般的人工智能)很感兴趣,但我们距离拥抱它或信任它而不是人类还有很长的路要走。
在最近的澳门威尼斯人注册网站研究中,Longoni澳门威尼斯人注册网站研究了人们是相信人工智能生成的新闻故事,还是相信计算机程序的医疗诊断。她发现我们大多对人工智能持怀疑态度。一台机器可以写出一篇充满事实的新闻文章,但我们会怀疑它的真实性;一个程序可以提供比人类更准确的医学分析,但我们仍然更有可能听从医生的建议。

龙戈尼的最新论文发表在《市场澳门威尼斯人注册网站研究杂志》(Journal of Marketing Research)上,澳门威尼斯人注册网站研究了人们对政府使用的人工智能程序的信任程度。她与巴布森学院(Babson College)和弗吉尼亚大学(University of Virginia)的澳门威尼斯人注册网站研究人员一起,澳门威尼斯人注册网站研究了消费者在人工智能出错时的反应,比如在计算福利或追踪社会保障欺诈时,以及如果一个人搞砸了会发生什么。朗戈尼发现,当人工智能程序出错时,人们会不信任所有的人工智能,澳门威尼斯人注册网站研究人员称之为“算法移情”。但当一个人犯错时,我们不太可能不信任所有人——也就是说,如果人们搞砸了,我们就放他们一马,但不给人工智能同样的余地。
所以,如果我们还没有准备好信任人工智能,那么如何看待ChatGPT的快速增长呢?它是否标志着我们对算法态度的一个转折点?The Brink向院长澳门威尼斯人注册网站研究学者Longoni询问了最新的人工智能飞跃,我们对智能计算机程序的抵制,以及她是否担心她的学生提交大量由chatgct撰写的论文。
问&一个
和Chiara Longoni
濒危时刻: 作为一名记者,我应该担心ChatGPT会抢走我的工作吗?还是说读者更倾向于相信我写的文章,而不是电脑写的?
Longoni:我们有一篇澳门威尼斯人注册文本生成人工智能的论文,作者之一是我在Questrom的同事Andrey fradkin。当生成式人工智能应用于新闻制作时,我们观察了人们的反应。我们选取真实的新闻标题,并操纵这些新闻报道是由人类记者写的还是由人工智能算法写的。我们感兴趣的是人们在多大程度上认为这条新闻是准确的。因为我们使用了真实的故事,所以我们知道新闻客观上是假的还是真的。这个发现真的很有趣,尤其是现在,我感觉到人们倾向于过度依赖ChatGPT实际写的东西,因为我们发现,不管新闻的实际真实性如何,人们都不相信被标记为人工智能写的新闻——他们认为新闻不太准确。与人类记者写的相同内容相比,人们往往不那么相信生成人工智能。这是一种强大的效应——无论一个人的政治派别、背景、收入、社会经济地位、年龄如何,它都表现出来。我没有任何专门针对ChatGPT的澳门威尼斯人注册网站研究,但我的感觉是——这完全是我的猜测——我们社会的许多领域都在担心ChatGPT的潜在算法放大不准确或有偏见的信息。如果人们没有意识到人工智能的局限性,那么过度依赖这些生成型人工智能可能会传播偏见。
濒危时刻: 据报道,ChatGPT的增长速度超过了TikTok的最初增长速度。是什么让人们如此开放地使用它,你认为这可能是我们对人工智能的舒适度的转折点吗?
龙戈尼:人们想要使用它并不意味着人们信任它。这是一件非常酷的事情;这是一种革命性的人工智能,对人们来说很容易上手——他们只要登录就能看到。这背后有很多好奇心。第二,我最近和我的一个学生聊天,他们提到他们试图使用它,但他们被锁在外面了。所以,它的稀缺性使得它更受追捧——事实上,你想看看这个东西是如何工作的,并自己尝试一下,但你无法获得它。稀缺性在推动和产生对技术的兴趣方面非常有效。我不知道这是否会对这些技术的基本信任产生影响。看到它如何发展将是非常有趣的,因为这项技术的可访问性可能会对其他技术的信任产生溢出效应,这可能是好的,也可能是坏的。它是让人们更容易受到错误信息的影响,还是让人们更熟悉这项技术以及这项技术的局限性?总的来说,我的观点是,所有这些技术都是工具,这意味着问题应该是如何最佳地使用它们,意识到它们的潜力、局限性和弱点。所以,这可能会促使人们学习如何利用这些技术。当我们在写论文的时候,我们详细地考虑了这对伦理学家和政策制定者的影响。有很多新闻媒体都有自己的自动生成新闻的软件,这些软件通常不会向人们披露。已经有人在讨论如何制定指导方针,以显示一篇文章是否以任何形式由人工智能辅助生成。
濒危时刻: 你的澳门威尼斯人注册网站研究似乎触及了人们何时以及为何信任人工智能或不信任它的心理。
龙戈尼:信任和不信任的原因是什么?在我的工作中,我澳门威尼斯人注册网站研究了更多应用环境中信任或不信任的原因,比如医疗保健领域的人工智能,而不是文本或图像生成。在这些情况下,重点任务是预测——就像预测一个人是否会心脏病发作,建议做冠状动脉搭桥手术,或进行皮肤癌风险评估——这可以由算法或医生来完成。
濒危时刻: 所以,你想看看我们是否相信电脑做出的诊断?
龙戈尼:对,没错。我们测试了许多决策,包括预防服务、治疗建议,以及系统地改变了谁或什么来做决定,无论是算法还是医生。总的发现是,人们对医疗人工智能有抵抗力。与人类提供的医疗服务相比,他们更不愿意接受人工智能提供的医疗服务。这也是一种强有力的效应——无论患者的年龄或医疗决定的类型如何,它都会持续存在。
濒危时刻: 这种对人工智能的抵制来自哪里?
龙戈尼:我们调查了两个原因。一种是我们所说的唯一性忽视。它本质上抓住了这样一个事实,即人们相信他们的健康、地位和健康状况对他们来说是独一无二的,人们也相信人工智能以同样的方式对待每个人——你对人工智能来说是一个数字,一个统计数据。人们害怕自己独特的情况被忽视,或者没有得到适当的解释,这就解释了为什么人们想要看医生——医生会来找我,因为他们是人。我们确定的另一个原因既是幻觉也是现实。这些算法通常是黑盒子。事实上,使用的神经网络越复杂,就越难让算法透明,越难打开黑匣子,越难解释。这就是伦理学家和政策制定者想要谈论解释算法重要性的原因。但我们对人类做决定的方式也有这种虚幻的理解。我们认为我们可以用医生做出医疗决定的方式来看待人类的机制,这对我们作为人类同胞来说是透明的。这是一种错觉。就像我们不知道算法是如何进行医学诊断一样,我们也不知道医生是如何进行医学诊断的。因为我们对人类决策的透明度有一种虚幻的理解,我们有点惩罚算法的黑箱性。
濒危时刻: 在你的澳门威尼斯人注册网站研究中,无论是在新闻、医学还是其他领域,对人工智能的怀疑是一个普遍的发现吗?我们是否已经准备好接受人工智能?
龙龙妮:人们普遍不信任人工智能,无论是什么应用程序,而不是倾向于接受人工智能。也就是说,在某些情况下,人们确实会接受人工智能的帮助。我们特别看到的一个情况是,人们更喜欢人工智能的推荐,而不是人的推荐,当他们想要优化实用性的时候,推荐的实用价值,比如推荐一套实用的公寓,或者推荐一份富含微量营养素的食谱。另一种情况是,当任务以高度量化和客观的方式呈现给人们时,比如估计一个人的体重或预测天气。一个人的推荐被认为是更加主观和定性的,可能是基于他们自己的个人意见,而不是基于客观标准,这是有道理的。因此,当定量和客观参数更加突出时,人们更倾向于AI的推荐。另一种情况是,人们不一定更喜欢人工智能,而是对人工智能漠不关心——同样有可能选择人工智能或坚持与人合作——当人工智能充当一个人的助手时,这个人保留了否决权或仍然是最终决策者。所以,人们对人工智能做一些事情没有意见,只要最后的决定是由人做出的。
濒危时刻: 你是否觉得澳门威尼斯人注册人工智能的讨论被困在两个极端之间——人工智能很好,人工智能很糟糕——而实际上真相是介于两者之间?
龙龙妮:有一种观点倾向于将人工智能视为终极乌托邦或反乌托邦。我个人的观点是:总体而言,我对人工智能持乐观态度,但并不认为人工智能是万灵药。它是一种工具,一种技术。当然需要监督和监管,但我认为有很大的潜力可以做很多好事。而且,这是不可避免的,我认为这是无法阻止的。例如,这与我的主要工作有关,即医疗人工智能,人工智能可以使医疗保健民主化。它确实可以做很多好事,比如使用应用程序进行皮肤癌风险评估。那些没钱去看皮肤科医生的人,或者那些根本无法获得这种护理的人,现在可以注意到这个主要的危险信号——去检查这个痣。所以,人工智能有可能为那些无法接触到它的人提供规定的良好结果。所以我感兴趣的问题是,如果人工智能是一件好事,我们如何理解人们是如何看待它的,我们如何促进人们对它的接受?
濒危时刻: 另一方面,作为一名教育工作者,你对ChatGPT和学生提交人工智能生成论文的前景有多担心?
龙戈尼:当我第一次读到它的时候,我就想,好吧,我到底能不能允许它出现在我的课堂上?我认为这因课程和学习目标而异。在某些课程中,我认为人工智能是可以被允许的——我看到一些教授编程或技术课程的同事允许人工智能——而在某些课程中,人工智能可能被禁止或可能受到监管,比如创意写作课程。最终,这种技术的帮助将在我们的课堂和教育中变得越来越正常。我觉得在某些情况下,在不被披露的情况下,这也可能是一种平衡。我在考虑那些可能非常昂贵的服务,比如文字编辑服务。我听学生们说,他们用它来生成大纲,然后再进行编辑。也许有一天它会成为一个来源,像其他来源一样被引用。我认为真正重要的是教会我们自己和潜在用户这些工具能做什么和不能做什么,如何正确地检查输出,以及如何编写提示。
为了清晰和简洁,这篇采访是由人编辑的。
评论与讨论
波士顿大学缓和评论,以促进知情的、实质性的、文明的对话。辱骂、亵渎、自我推销、误导、语无伦次或离题的评论将被拒绝。版主在正常营业时间(EST)有澳门威尼斯人注册,只能接受用英语写的评论。统计数据或事实必须包含引文或引文链接。