人工智能(AI)领域中广泛使用的大语言模型,其“一本正经地胡诌”现象是其难以克服的挑战。最近,英国牛津大学研究团队开发出了一种名为“语义熵”的新方法,有望大幅提升AI回答的可靠性。
大语言模型的“胡诌”在业界被称为“幻觉”,牛津大学计算机科学系的研究人员提出“语义熵”方法试图解决这一问题。在热力学中,熵描述的是系统的混乱程度或不稳定程度。这项研究中,熵用来衡量大语言模型回答的不确定性,不确定性越高意味着大语言模型的回答可能存在虚构成分。
该研究成果已发表在近期出版的英国《自然》杂志上。论文指出,如果AI对同一个问题给出许多语义相似的答案,那么说明它对自己的回答比较有把握;反之,如果答案五花八门,就意味着AI自己也“心里没底”,很可能是在“胡诌”。
研究人员利用“语义熵”方法,让大语言模型对同一问题生成多个答案,然后将语义相近的答案进行聚类,最后根据聚类结果计算熵值。熵值越高,表示大语言模型的回答越不确定。
值得注意的是,这种方法不仅考虑了大语言模型回答的字面差异,更关注语义层面的一致性。这使得“语义熵”能够更准确地识别AI的“胡诌”,而不会被表达方式的多样性所迷惑。
研究结果表明,“语义熵”方法在多个数据集和任务中都表现出色,能够有效检测大语言模型的错误回答,并通过拒绝回答不确定的问题来提高整体准确率。更重要的是,这一方法无需修改AI模型本身,可以直接应用于现有的大语言模型。
研究人员表示,“语义熵”技术有望在问答系统、文本生成、机器翻译等多个领域发挥重要作用,帮助AI生成更可靠、更有价值的内容。这不仅将提升AI在实际应用中的表现,也将增强用户对AI系统的信任。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。