近期研究显示,OpenAI 最新的大型语言模型 GPT-4o 在道德解释和建议方面展现出令人瞩目的能力,甚至超越了“公认的”道德专家。
这项研究由美国北卡罗莱纳大学教堂山分校和艾伦 AI 研究所的科研人员共同完成,旨在探索大型语言模型是否可以被视为“道德专家”。研究人员通过两项实验,分别比较了 GPT 模型与人类参与者的道德推理能力。

在第一项研究中,研究人员邀请了 501 名美国成年人参与,让他们比较 GPT-3.5-turbo 模型和其他参与者提供的道德解释。结果显示,人们普遍认为 GPT 给出的解释更合理、更值得信赖,也更周到。评估者甚至认为,与其他参与者相比,人工智能的评估更可靠。虽然差异并不显著,但这一发现表明,AI 在道德推理方面已经达到甚至可能超过了人类水平。

第二项研究则更具挑战性。研究人员将 OpenAI 最新 GPT-4o 模型生成的建议与《纽约时报》“伦理学家”专栏中的知名伦理学家 Kwame Anthony Appiah 的建议进行了对比。共有 900 名参与者对 50 个“伦理困境”中的建议质量进行了评分。结果表明,GPT-4o 在几乎所有方面都超越了人类专家。人们普遍认为,AI 生成的建议在道德上更正确、更值得信赖、更周到,也更准确。仅在感知细微差别方面,人工智能与人类专家之间未表现出显著差异。
研究团队认为,这些结果表明,AI 完全有可能通过 “比较道德图灵测试”(cMTT)。此外,文本分析还显示,GPT-4o 在提供建议时,使用的道德和积极语言明显多于人类专家,这或许可以部分解释为何 AI 的建议能够获得更高的评分。当然,这并非唯一因素。
然而,这项研究主要针对的是美国参与者。未来,研究人员仍需进一步探讨人们如何看待 AI 生成的道德推理在不同文化背景下的差异。
总而言之,这项研究表明,AI 在道德推理方面的能力已经取得了显著进展,这对于未来 AI 技术的发展和应用具有重要意义。虽然研究结果令人鼓舞,但我们也要注意到,AI 在道德判断方面仍存在一些局限性,需要在未来进一步研究和完善。