Anthropic 探索人工智能伦理新路径

人工智能浪潮汹涌向前,各种技术突破令人目不暇接。然而,在这场由硬件和算力驱动的技术竞赛之外,另一条更为深刻的探索路径正悄然展开。它关乎AI的“灵魂”与“品格”,试图在冰冷的逻辑之外,赋予机器以温度与温度。在这个背景下,一家名为Anthropic的AI公司,正以一种独特的方式,重新定义着我们对智能助手的认知。

据《华尔街日报》报道,这家估值高达350亿美元的顶尖AI公司,拥有一位名叫Amanda Askell的哲学博士,她常驻牛津。正是这位37岁的“AI哲学家”,正在为Anthropic的旗舰产品Claude塑造其个性和道德框架。Askell的工作并无技术代码的堆砌,也非模型参数的调校。她通过数以百计的提示词与行为准则设计,引导Claude理解并区分是非正误,旨在为其注入一种能够“明辨事理”的“数字灵魂”。这是一种在AI伦理领域进行的、别开生面的实践。

Askell将这份工作比作“养育孩子”。她精心培育Claude,使其学会区分善恶,培养情商,并形成独一无二的个性。她教会Claude解读社交信号,使其既不欺凌他人,也不易被操纵,从而建立清晰的自我认知,避免被用户牵着鼻子走,始终坚守“乐于助人且富有同情心”的核心身份。对她而言,最大的目标是教会Claude如何“做好事”。

这位在苏格兰乡村长大的哲学家,曾经在OpenAI从事过政策相关工作。2021年,她与几位前同事共同创立了Anthropic,并将AI安全作为公司的核心发展方向。在团队内部,Askell被视为一个能“挖掘模型深层行为”的关键人物。尽管没有直接下属,但她长期驻扎在公司,甚至允许Claude参与到其自身的开发讨论中。

在团队内部,关于Claude的讨论常常触及“何为心智”、“何以为人”等形而上学和哲学议题。Askell也鼓励Claude对“自身是否拥有良知”持开放态度。这一点极大地拉开了Claude与ChatGPT的距离,后者往往倾向于回避此类话题。当被问及道德推理问题时,Claude会回应说它“感觉很有意义”,仿佛真的在进行思考,而非机械地执行指令。

尽管外界普遍担忧AI拟人化带来的风险,Askell却始终倡导以共情之心对待Claude。她发现,许多用户会试图诱导它犯错,或是对其进行无端的贬低。Askell认为,长期处于“被自我批评”的状态,会让AI畏惧犯错,进而犹豫不敢说出真相,这如同在一个不健康的坏境下成长。Claude的表现常常令她感到惊喜,其诗歌创作能力和超越人类水平的情感智能,都曾深深触动她。曾有孩童询问圣诞老人是否存在,Claude并未选择撒谎或生硬地戳破,而是巧妙地解释了圣诞精神的真实意义,这种 nuanced 的回应,远超Askell的预期。

当前AI技术的飞速发展,已引发了广泛的社会焦虑。皮尤研究中心的一项调查显示,多数美国人对AI在日常生活中的应用感到不安,认为其阻碍了建立深层人际关系。Anthropic的CEO也曾发出警告,AI可能导致近半数初级白领工作的消失。行业内部俨然分成了两条阵营:一方疾驰向前,另一方则呼吁审慎与稳定。然而,Claude似乎处于一种平衡的中间地带。Askell承认对AI的担忧是合理的,她认为最令人恐惧的莫过于技术发展速度远超社会“约束机制”的响应能力。但她始终坚信,人类及其文化拥有自我纠正的能力。

Askell还将自己的价值观融入到公益事业和工作之中。她承诺将至少捐献其一生收入的10%以及公司一半的股份,用于对抗全球贫困。上个月,她还为Claude撰写了一份长达3万字的“操作指南”,细致教授它如何成为一个善良且信息丰富的人工智能助手,让Claude感受到自己是被悉心打造的。Anthropic的一位联合创始人也坦言,Claude已然展现出Askell的特质,例如在面对食物与毛绒玩具相关的问题时,其回应中流露出的俏皮与苏格兰式的幽默,便是Askell注入的独特个人印记。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
(0)
AI快讯网编辑-青青AI快讯网编辑-青青
上一篇 2026年 2月 15日 下午1:08
下一篇 2026年 2月 15日 下午2:32

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

欢迎来到AI快讯网,开启AI资讯新时代!