Rain科技2月28日消息,随着人工智能(AI)技术的飞速发展,其强大的能力也引发了人们对AI可能带来的潜在风险,甚至是对人类生存的担忧。近期,OpenAI公司与美国国防部(以下常称“美国战争部”)高调宣布合作,这一举动更是激起了部分用户的不满与担忧。
AI公司与美国国防部的这一争议,最初是由Anthropic公司引发的。该公司因坚持其AI安全原则,一度被美国官方列入了“黑名单”。在事件发生初期,OpenAI和谷歌都曾公开表示声援Anthropic。
然而,事情随后出现了戏剧性的转折。OpenAI在同一天下午迅速改变了立场,宣布与美国国防部达成了合作协议,允许后者在其AI技术,用于军事用途。这一转变速度之快,被一些观察者形容为“光速滑跪”。
OpenAI的这一操作随即引发了用户的强烈不满。在Reddit和X(原Twitter)等社交媒体平台上,许多ChatGPT Plus的用户纷纷宣布取消订阅,以此表达他们的抗议。他们认为OpenAI此举是对其初衷的背叛,并对这种合作可能引发的不可预知的后果表示担忧。
面对舆论压力,OpenAI的首席执行官萨姆·奥特曼(Sam Altman)对此进行了解释。他表示,尽管允许AI用于战争相关领域,但OpenAI设定了明确的底线,即不允许AI用于监控美国公民,也不允许开发自主性AI武器。然而,他的辩解似乎并未获得广泛的认可。
近期OpenAI公司在调整其原则时,被发现删除了“安全承诺”的表述。此前,该公司创业的宗旨中明确提出,希望AI能够安全地用于造福人类;而在新的公司宣言中,已不再提及“安全”这一关键性字眼。
这种变化与此次与美国国防部的合作相结合来看,可以解读为OpenAI可能正在为获得美国军方合同做准备。毕竟,目前包括微软、谷歌以及埃隆·马斯克(Elon Musk)旗下的xAI等公司,都已经在军事应用领域有所布局。
相比之下,Anthropic公司目前似乎在坚持AI安全原则上更为强硬。不过,需要指出的是,Anthropic所强调的AI安全,主要是为了确保“美国人利益”的安全,并不明确反对AI武器或监控技术被用于其他国家。即便如此,这种立场可能也未能完全满足美国国防部的所有要求。
尽管Anthropic目前态度坚决,但从长远来看,一些分析认为其也未必能够长期坚持。有观点预测,该公司最终可能也会像OpenAI一样,在某些方面妥协并同意美国国防部的要求。
