GPT-4o 伦理判断超越人类专家

近期研究显示,OpenAI 最新的大型语言模型 GPT-4o 在道德解释和建议方面展现出令人瞩目的能力,甚至超越了“公认的”道德专家。

这项研究由美国北卡罗莱纳大学教堂山分校和艾伦 AI 研究所的科研人员共同完成,旨在探索大型语言模型是否可以被视为“道德专家”。研究人员通过两项实验,分别比较了 GPT 模型与人类参与者的道德推理能力。

GPT-4o 伦理判断超越人类专家

在第一项研究中,研究人员邀请了 501 名美国成年人参与,让他们比较 GPT-3.5-turbo 模型和其他参与者提供的道德解释。结果显示,人们普遍认为 GPT 给出的解释更合理、更值得信赖,也更周到。评估者甚至认为,与其他参与者相比,人工智能的评估更可靠。虽然差异并不显著,但这一发现表明,AI 在道德推理方面已经达到甚至可能超过了人类水平。

GPT-4o 伦理判断超越人类专家

第二项研究则更具挑战性。研究人员将 OpenAI 最新 GPT-4o 模型生成的建议与《纽约时报》“伦理学家”专栏中的知名伦理学家 Kwame Anthony Appiah 的建议进行了对比。共有 900 名参与者对 50 个“伦理困境”中的建议质量进行了评分。结果表明,GPT-4o 在几乎所有方面都超越了人类专家。人们普遍认为,AI 生成的建议在道德上更正确、更值得信赖、更周到,也更准确。仅在感知细微差别方面,人工智能与人类专家之间未表现出显著差异。

研究团队认为,这些结果表明,AI 完全有可能通过 “比较道德图灵测试”(cMTT)。此外,文本分析还显示,GPT-4o 在提供建议时,使用的道德和积极语言明显多于人类专家,这或许可以部分解释为何 AI 的建议能够获得更高的评分。当然,这并非唯一因素。

然而,这项研究主要针对的是美国参与者。未来,研究人员仍需进一步探讨人们如何看待 AI 生成的道德推理在不同文化背景下的差异。

总而言之,这项研究表明,AI 在道德推理方面的能力已经取得了显著进展,这对于未来 AI 技术的发展和应用具有重要意义。虽然研究结果令人鼓舞,但我们也要注意到,AI 在道德判断方面仍存在一些局限性,需要在未来进一步研究和完善。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
(0)
AI快讯网编辑-青青AI快讯网编辑-青青
上一篇 2024年 6月 24日 上午11:15
下一篇 2024年 6月 24日 上午11:34

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

欢迎来到AI快讯网,开启AI资讯新时代!