人们能要求人工智能讲真话吗?也许不能,但一个伦理学家团队认为,从法律角度来看,人工智能开发商应该承担减少错误风险的责任。“我们只是试图建立一种激励机制,让公司在创建(大型语言模型)系统时更加重视真实性或准确性,”牛津大学伦理学家布伦特·米特尔施塔特说。
大型语言模型聊天机器人,例如ChatGPT,基于对海量文本的统计分析,能够生成类似人类的回答。然而,尽管它们的答案通常看起来令人信服,但也很容易出错,这是一种被称为“幻觉”的缺陷。米特尔施塔特说:“我们拥有这些极其令人印象深刻的生成式人工智能系统,但它们也会频繁出错,从我们对这种系统基本机能的了解来看,没有根本的解决方法。”
米特尔施塔特表示,对于大型语言模型系统而言,这是一个重大问题,因为它们正在被应用于政府决策,在这种情况下,诚实地承认自身的知识局限性就变得至关重要。为了解决这个问题,他们提出了一系列应对措施:当被问及与事实相关的问题时,人工智能应该像人类一样。这意味着它们需要诚实,遵循“知之为知之,不知为不知,是知也”的态度。“关键在于采取必要的步骤,让它们真正做到谨慎言行,”米特尔施塔特说,“如果对某件事不确定,它们不应该为了让人们信服而编造一些东西。相反,它们应该说,‘嘿,你知道吗?我不知道。让我来研究一下。我会回复你的。’”
这似乎是一个值得称赞的目标,但在英国德蒙福特大学网络安全教授伊尔克·鲍伊腾看来,伦理学家提出的这些要求在技术上可能无法实现。开发商正尝试让人工智能实事求是,但到目前为止,事实证明这是一个非常“劳动密集型”的任务,甚至是不切实际的。“我不明白他们如何期望法律强制执行这种命令,我认为这在技术上根本行不通,”鲍伊腾说。
为此,米特尔施塔特和他的同事提出了一些更直接的措施,可能使人工智能更“诚实”。他说,这些模型应该列出答案的信息源,目前许多模型都在这样做以证明它们给出答案的可信度。此外,更广泛地使用被称为“检索增强”的技术来给出答案,也可能限制这些模型产生“幻觉”的可能性。他还认为,应该缩减在政府决策等高风险领域部署人工智能的规模,或者应该限制模型可利用的信息源。“如果我们有一个仅在医学领域使用的语言模型,我们就应该限制它,让它只能在高质量医学期刊上搜索学术文章。”
米特尔施塔特声称,改变观念也很重要,“如果我们能摆脱所谓(大型语言模型)善于回答事实性问题、或者它们至少会给你一个可靠答案的想法,而是认为它们有助于为你提供更多相关的信息,那就太好了。”
但荷兰乌得勒支大学法学院副教授卡塔琳娜·戈安塔表示,这些研究人员过于关注技术,因此对公共话语中长期存在的谎言问题关注不够。“在这种背景下,仅将矛头指向大型语言模型会制造一种假象,即人类非常勤奋细致,永远不会犯此类错误。问问你遇到的任何法官,他们都遇到过律师玩忽职守的可怕经历,反之亦然——这并非一个机器的问题。”
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。