人工智能程序,就像开发和训练它们的人类一样,远非完美。无论是分析医学图像的机器学习软件,还是进行看似有机对话的生成式聊天机器人,例如 ChatGPT,基于算法的技术都可能出错,甚至产生“幻觉”,或提供不准确的信息。也许更阴险的是,人工智能还可以显示偏见,这些偏见是通过这些程序训练的海量数据宝库引入的,而这些偏见对许多用户来说是无法察觉的。现在,新的研究表明,人类用户可能会无意识地吸收这些自动偏见。
过去的研究表明,有偏见的人工智能会伤害已经边缘化的群体。有些影响是微妙的,例如语音识别软件无法理解非美国口音,这可能会给使用智能手机或语音操作的家庭助理的人带来不便。还有一些更可怕的例子,包括医疗保健算法会出错,因为它们只在一部分人(如白人、特定年龄段的人,甚至是患有某种疾病阶段的人)上进行训练,以及带有种族偏见的警察面部识别软件,这可能会增加对黑人的错误逮捕。
然而,解决这个问题可能并不像追溯调整算法那么简单。一旦人工智能模型出现,以其偏见影响人们,从某种意义上说,损害已经造成。这是因为与这些自动化系统交互的人可能会无意识地将他们遇到的偏差纳入他们自己的未来决策中,正如 最近的一项心理学研究 发表于 科学报告.至关重要的是,该研究表明,人工智能模型引入用户的偏见可以持续存在于一个人的行为中——即使他们停止使用人工智能程序也是如此。
在三个实验过程中,每个实验都涉及大约200名独特的参与者,Matute和她的共同研究员,Deusto大学的LucíaVicente模拟了一个简化的医学诊断任务:他们要求非专家参与者将图像分类为表明存在或不存在虚构的疾病。这些图像由两种不同颜色的点组成,参与者被告知这些点阵列代表组织样本。根据任务参数,一种颜色的点越多意味着疾病的阳性结果,而另一种颜色的更多点意味着它是阴性的。
在不同的实验和试验中,Matute 和 Vicente 提供了参与者的子集,这些建议故意歪曲,如果遵循这些建议,将导致他们对图像进行错误的分类。科学家们在一封电子邮件中解释说,这些建议源于“基于人工智能(AI)算法的诊断辅助系统”。对照组接收了一系列未标记的点图像进行评估。相比之下,实验组从假人工智能那里收到了一系列标有“正面”或“负面”评估的点图像。在大多数情况下,标签是正确的,但是在每种颜色的点数相似的情况下,研究人员会故意引入带有错误答案的偏斜。在一个实验组中,人工智能标签倾向于提供假阴性。在第二个实验组中,倾斜度朝向假阳性。
研究人员发现,收到虚假人工智能建议的参与者继续将同样的偏见纳入他们未来的决策中,即使在不再提供指导之后也是如此。例如,如果参与者与误报建议进行交互,当提供新图像进行评估时,他们往往会继续犯误报错误。尽管对照组证明,在没有人工智能指导的情况下,这项任务很容易正确完成,尽管其中一项实验中有80%的参与者注意到虚构的“人工智能”犯了错误,但这一观察结果是正确的。
需要注意的是,这项研究没有涉及训练有素的医疗专业人员,也没有评估任何经批准的诊断软件,哈佛医学院皮肤病学教授兼主编约瑟夫·克维达尔(Joseph Kvedar)说。 npj 数字医学.因此,Kvedar指出,这项研究对医生和他们使用的实际人工智能工具的影响非常有限。美国放射学会数据科学研究所(American College of Radiology Data Science Institute)首席科学官基思·德雷尔(Keith Dreyer)对此表示同意,并补充说,“这一前提与医学成像不一致。
虽然不是一项真正的医学研究,但这项研究提供了对人们如何学习的见解从无意中融入许多机器学习算法的偏见模式来看,这表明人工智能可能会对人类行为产生更糟糕的影响。Kvedar说,忽略了研究中假AI的诊断方面,从心理学的角度来看,“实验的设计几乎是完美的”。Dreyer和Kvedar都没有参与这项研究,他们都认为这项工作很有趣,尽管并不令人惊讶。
范德比尔特大学心理学和人类发展副教授丽莎·法齐奥(Lisa Fazio)说,人类可能会通过复制人工智能的偏见,将其复制到与机器学习模型交互的范围之外,从而继续制定人工智能的偏见,这一发现是“真正的新颖性”,她没有参与最近的研究。对她来说,这表明即使是与有问题的人工智能模型或人工智能生成的输出进行限时互动也会产生持久的影响。
例如,考虑预测性警务软件 加利福尼亚州圣克鲁斯,2020 年被禁止.尽管该市警察局不再使用算法工具来确定在哪里部署警员,但经过多年的使用,部门官员可能已经内化了 软件的可能偏差加州大学伯克利分校(University of California, Berkeley)心理学助理教授塞莱斯特·基德(Celeste Kidd)说,他也没有参与这项新研究。
人们普遍认为,人们也会从人类信息来源中学习偏见。然而,基德说,当来自人工智能的不准确内容或指导时,后果可能会更加严重。她之前曾研究并撰写过关于独特方式的文章 人工智能可以改变人类的信念.首先,基德指出,人工智能模型很容易变得比人类更偏斜。她引用了彭博社最近发表的一项评估,该评估确定生成式人工智能可能会显示 更强烈的种族和性别偏见 比人做的。
还有一种风险是,人类可能会将更多的客观性归因于机器学习工具,而不是其他来源。“你受信息源影响的程度与你评估它的智能程度有关,”基德说。她解释说,人们可能会将更多的权威归因于人工智能,部分原因是算法经常被宣传为利用所有人类知识的总和。这项新研究似乎在第二个发现中支持了这一观点:Matute 和 Vicente 指出,自我报告对自动化的信任程度较高的参与者往往会犯更多模仿假人工智能偏见的错误。
此外,与人类不同,算法以看似“自信”的方式提供所有输出——无论是否正确,“基德说。在直接的人类交流中,不确定性的微妙线索对于我们如何理解和理解信息很重要。长时间的停顿、“嗯”、手势或眼神的转移可能表明一个人对他们所说的话不太肯定。机器不提供这样的指标。“这是一个巨大的问题,”基德说。她指出,一些人工智能开发人员正试图通过添加不确定性信号来追溯性地解决这个问题,但很难设计出真实事物的替代品。
这不仅仅是医生。为了尽量减少人工智能偏见的影响,每个人都“需要对这些人工智能系统的工作原理有更多的了解,”马图特说。否则,我们就有可能让算法“黑匣子”将我们推向一个弄巧成拙的循环,在这个循环中,人工智能会导致更多有偏见的人类,而人类反过来又创造了越来越有偏见的算法。“我非常担心,”马图特补充道,“我们正在开始一个循环,这将很难摆脱。
本文由AI快讯网译自:AIMagazine