AI幻觉难以避免,如何应对

在人工智能(AI)技术飞速发展的时代,“AI 幻觉”,即人工智能在信息处理和生成过程中的错误或错觉,已成为一个不可忽视的问题。2023 年,“幻觉”被剑桥词典和 Dictionary.com 评选为年度词语,体现了这一现象的普遍性和重要性。根据 Dictionary.com 的数据,2023 年 “幻觉”一词的搜索量较前一年增长了 46%,反映了公众对其的关注和担忧。

剑桥词典对 “幻觉” 的定义也发生了变化,除了原有的 “似乎看到、听到、感觉到或闻到一些不存在的东西,通常因为健康状况或服用了某种药物” 外,还增加了 “AI 幻觉会生成错误信息” 这一新的释义。这表明 AI 幻觉已经成为一种新兴的现象,并对人们的信息获取和认知造成了一定的影响。

日前,《自然》杂志上的一篇论文《机器行为》指出,人工智能如今已经普遍融入人类社会,对我们的生活产生了深远的影响。新闻排名算法影响着我们看到的信息,消费算法影响着我们的购买行为,打车算法影响着我们的出行方式,而智能家庭算法也影响着我们的日常生活。在法律、医疗等领域,人工智能的影响更为巨大,其应用正在改变着传统的运作模式。

人工智能使机器越来越像人类一样思考和行为,这使得机器对人类社会的结构产生了越来越深远的影响。机器塑造着人类的行为,而人类也塑造着机器的行为,未来人类与机器之间的协同互动将对社会形态产生重大且深远的影响。在这种背景下,AI 幻觉已经成为一种普遍存在的现象,它会对人类社会产生潜在的风险。

从自动驾驶汽车可能的错误判断,到智能助手误解指令,再到医疗诊断工具的误诊,AI 幻觉无处不在。2024 年,谷歌搜索引擎推出了一项人工智能搜索服务:AI 概览,旨在提升用户体验,但用户很快发现 AI 概览提供的许多答案都十分离谱,例如建议用胶水粘披萨、每天吃石头来获取营养等等,导致谷歌不得不紧急关闭其部分功能。这一事件也警示我们,AI 幻觉的潜在风险不容忽视。

从人工智能科学家的视角来看,由于技术的限制和人类认知的不足,AI 幻觉本质上是难以避免的。尽管技术人员正在努力提高 AI 的准确性和可靠性,但由于数据的不完整、算法的局限以及复杂的交互环境等因素,AI 幻觉仍然频繁出现,且难以完全消除。

AI 幻觉的产生机制涉及多个方面,其中数据偏差是主要原因之一。如果 AI 的训练数据缺乏多样性或存在系统性偏见,那么输出的结果就可能产生幻觉。此外,当前的 AI 算法,尤其是基于统计学的算法,无法完美地适应新的、未曾见过的情况,从而可能导致错误的判断。人类设计者的认知局限也是一个重要的问题,设计者和训练者的主观偏见可能无意中被编码进 AI 系统,影响其决策。最后,AI 系统运行的交互环境本身充满变数,复杂多变的环境因素常常超出 AI 系统的处理能力,导致 AI 幻觉的产生。

面对 AI 幻觉的普遍性和不可避免性,我们需要采取多维度、多层次的策略来应对,从而最大限度地减少其负面影响。

首先,提升数据质量和多样性是基础。通过增加训练数据的广度和深度,可以减少数据偏差,提高 AI 系统的泛化能力。

其次,优化算法设计,增强其健壮性和适应性,能够使 AI 系统更好地应对新情况。研究人员可以探索新的算法,例如基于因果推理的算法,以帮助 AI 系统更好地理解复杂的环境和因果关系。

第三,提升用户教育和意识也至关重要。帮助用户正确理解 AI 的能力和局限,可以有效减少因误解而产生的幻觉。人们需要学习如何辨别 AI 生成的信息,并对 AI 的输出结果保持理性分析和批判性思维。

此外,建立伦理规范和监管机制,确保 AI 的发展和应用符合伦理与法律标准,对于减少 AI 幻觉的发生同样重要。例如,可以制定 AI 系统的设计原则,确保其公平、透明、可解释性,并建立相应的监管机制来保障 AI 系统的可靠性和安全性。

最后,跨学科合作在应对 AI 幻觉时扮演着关键角色。工程师、数据科学家、心理学家、伦理学家以及法律专家等应共同参与到 AI 系统的设计和评估过程中,从各自领域的专业角度出发,共同解决 AI 幻觉问题。这种协作模式有利于将人工智能技术的应用置于一个更安全、更可控的环境中,为构建一个更智能、更安全、更可靠的人工智能社会奠定基础。

2023 年联合国教科文组织发布的《教育与研究领域生成式人工智能指南》建议,把在课堂上使用人工智能工具的最低年龄设定为 13 岁。Open AI 则建议 13 岁以下儿童禁止使用生成式人工智能,13 到 18 岁的孩子需要在监护人指导下使用。这些建议反映了人们对 AI 幻觉以及其对青少年群体可能产生的负面影响的担忧。

2023 年一次可信任媒体峰会在新加坡举行,分享了各国如何提升青少年媒介素养的举措。如一项国外基于网站和播客发起的、以小学生为对象,提升媒体素养的公益活动 “SQUIZ KIDS”,帮助培养青少年分辨网络上出现的错误信息、假信息的能力。它主要分三步:接触到网络信息时停一停 (STOP),想一想 (THINK),最后对一对 (CHECK),和可靠的信息源对照确认是否一致。通过这样的训练,青少年能够更好地学习如何识别和判断信息的真伪,提高对网络信息的鉴别能力。

总之,人工智能时代下,AI 幻觉是一个复杂、普遍、不可避免的问题,需要我们采取多维度、多层次的策略来应对,从而最大限度地减少其负面影响。通过集合不同领域的知识和技能,更全面地识别问题、找到解决方案,我们就可以期待一个更智能、更安全、更可靠的人工智能社会的到来。

    免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
    (0)
    AI快讯网编辑-青青AI快讯网编辑-青青
    上一篇 2024年 8月 15日 下午12:01
    下一篇 2024年 8月 15日 下午12:38

    相关推荐

    发表回复

    您的邮箱地址不会被公开。 必填项已用 * 标注

    欢迎来到AI快讯网,开启AI资讯新时代!