Anthropic CEO:AI幻觉频率或低于人类,出错方式更出人意料

近日,科技媒体TechCrunch报道了Anthropic在旧金山举办的首次开发者盛会“Code with Claude”,会上Anthropic首席执行官达里奥·阿莫代伊提出一个颇具争议的观点:在特定情况下,人工智能模型产生“幻觉”(即虚构内容并当作事实呈现)的概率,可能已经低于人类。

阿莫代伊的观点无疑在业界引发了讨论。他认为,尽管AI模型仍会犯错,但这些错误并不妨碍Anthropic向通用人工智能(AGI)的目标稳步前进。他具体指出,如果以特定标准来衡量,AI模型的幻觉频率可能已经低于人类,只不过它们出错的方式往往更加“出人意料”。这种观点挑战了我们对AI“智能”的传统认知,即错误是智力不足的表现。

Anthropic CEO:AI幻觉频率或低于人类,出错方式更出人意料

值得注意的是,阿莫代伊一直是AGI前景的乐观派代表。他坚信,AI的能力边界远未触及,仍有巨大的发展潜力。然而,并非所有人都赞同他的观点。例如,谷歌DeepMind首席执行官哈萨比斯近期就公开表示,当前的AI模型仍然存在大量漏洞,甚至在基础问题上也会给出错误答案。这种不同声音提醒我们,在评估AI能力时需要保持谨慎和客观。

进一步的研究也显示,在处理复杂的推理任务时,一些新型AI模型反而出现了更严重的“幻觉”现象。例如,OpenAI的o3和o4-mini版本,其幻觉率相较于此前的推理模型有所上升,这一现象甚至让OpenAI自身感到困惑。这表明,简单地增加模型规模或复杂度,并不一定能有效降低“幻觉”的产生,反而可能带来新的问题。面对这些挑战,阿莫代伊认为,人类本身也经常犯错,AI的错误不应被简单地视为其“不够聪明”的标志。然而,他也承认,当AI以极高的置信度输出错误信息时,确实会引发严重的问题,例如误导决策甚至造成实际危害。

阿莫代伊进一步阐释道,AI的错误与人类的错误存在着本质的区别。人类的错误通常源于认知局限或信息不足,而AI的错误则更多地源于其算法和训练数据的固有局限。因此,他呼吁业界在积极追求AI技术进步的同时,也必须加强对AI错误成因和潜在风险的理解,并开发有效的应对机制,从而确保AI技术的健康和可持续发展。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
(0)
AI快讯网编辑-青青AI快讯网编辑-青青
上一篇 2025年 5月 23日 下午10:44
下一篇 2025年 5月 24日 上午1:13

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

欢迎来到AI快讯网,开启AI资讯新时代!