人们可以要求人工智能讲真话吗?或许不能,但一组伦理学家认为,从法律角度看,人工智能开发人员应该承担降低其系统犯错风险的责任。牛津大学伦理学家布伦特·米特尔施塔特表示,“我们只是试图建立一个激励机制,让公司在创建(大型语言模型)系统时更加重视真实性或准确性。”
大型语言模型聊天机器人,例如 ChatGPT,基于对大量文本的统计分析,能够对用户的问题生成类似人类的回答。然而,虽然它们的答案通常听起来令人信服,但也很容易出错,这种缺陷被称为“幻觉”。米特尔施塔特表示:“我们拥有这些极其令人印象深刻的生成式人工智能系统,但它们也会频繁地出错,从我们对这些系统的基本功能的理解来看,没有根本的解决方案。”
米特尔施塔特指出,对于大型语言模型系统来说,这是一个重大问题,因为它们正被应用于政府决策,在这种情况下,它们诚实地承认自己的知识局限性变得尤为重要。为了解决这个问题,他们提出了一系列应对措施:当被问及与事实相关的问题时,人工智能应该像人类一样。这意味着它们应该诚实,秉持“知之为知之,不知为不知”的态度。“关键在于采取必要的措施,让它们真正做到谨言慎行,”米特尔施塔特说,“如果对某件事不确定,它们不应该为了让人信服而编造一些东西。相反,它们应该说,‘嘿,你知道吗?我不知道。让我来研究一下。我会回复你的。’”
这个目标看起来值得称赞,但英国德蒙福特大学网络安全教授伊尔克·鲍伊腾认为,伦理学家提出的这些要求在技术上未必可行。开发人员正在尝试让人工智能实事求是,但到目前为止,事实证明这是一项极其“劳动密集型”的任务,甚至不切实际。“我不明白,他们怎么期望法律要求强制执行这种命令,我认为这在技术上根本行不通,”鲍伊腾说。
为此,米特尔施塔特及其同事提出了一些更直接的措施,可能使人工智能更“诚实”。他说,这些模型应该列出其答案的信息来源,目前许多模型都在这样做以证明其答案的可信度。此外,更广泛地使用一种被称为“检索增强”的技术来生成答案,也可能限制这些模型产生“幻觉”的可能性。他还认为,应该缩减在政府决策等高风险领域部署人工智能的规模,或者应该限制模型可利用的信息来源。“如果我们有一个仅在医学领域使用的语言模型,我们应该限制它,让它只能搜索高质量医学期刊上的学术文章。”
米特尔施塔特声称,改变观念也很重要,“如果我们能摆脱所谓(大型语言模型)擅长回答事实性问题,或者它们至少会给你一个可靠答案的想法,转而认为它们有助于为你提供更多相关的信息,那就太好了。”
然而,荷兰乌得勒支大学法学院副教授卡塔琳娜·戈安塔表示,这些研究人员过于关注技术,因此对公共话语中长期存在的谎言问题关注不够。“在这种背景下,仅将矛头指向大型语言模型会制造一种假象,即人类非常勤奋细致,永远不会犯此类错误。问问你遇到的任何法官,他们都遇到过律师玩忽职守的可怕经历,反之亦然——这并非一个机器的问题。”
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。