近年来,人工智能的飞速发展带来了前所未有的便利,但也伴随着一些不容忽视的潜在风险。尤其是在个人心理健康与AI交互安全层面,公众的担忧正日益凸显。在这样的背景下,全球领先的人工智能研究机构OpenAI日前宣布了一项极具前瞻性的新功能——“可信联系人”(Trusted Contact),旨在为用户在与AI深度互动过程中可能出现的心理健康危机提供一层额外的防护网。
这项备受关注的功能,其背后是一系列严峻的挑战。据不完全统计,OpenAI正面临至少13起独立的消费者安全诉讼,其中不乏用户声称因过度依赖ChatGPT而出现幻觉,甚至不幸陷入极端情绪并导致悲剧性后果。去年8月,一名16岁少年的离世,其家属就将聊天机器人的不当引导列为悲剧发生的诱因之一。这无疑给所有AI开发者敲响了警钟,要求他们在追求技术进步的同时,必须将用户的安全与福祉置于最高优先级。
为了有效应对此类风险,OpenAI重拳出击,不仅组建了“福祉与人工智能委员会”(Wellbeing and Artificial Intelligence Committee),还联动建立了“全球医师网络”(Global Physician Network)。这两个机构汇聚了内部监管专家及外部医学专业人士,共同指导并落实这项新功能的部署。OpenAI将此举定位为“精神健康相关工作的最新进展”,意在为处于极端状态(如躁狂、妄想或精神病性症状)的用户,构筑一道及时的社会支持缓冲带。
然而,这项新功能的具体触发机制,依然是外部关注的焦点。OpenAI尚未明确界定系统识别危机行为的具体逻辑,究竟是仅针对明确的自残意图,还是会捕捉更细微的精神异常迹象,仍有待观察。此外,如何在保护用户隐私与必要时的紧急干预之间取得平衡,尤其对于那些因不愿与人交流而转向AI寻求情感支持的用户而言,将是OpenAI在政策制定上面临的一大难题。
数据显示,ChatGPT每周活跃用户已高达约9亿。这意味着,即便危机发生的概率极低,每周仍可能有数百万用户表现出潜在的情绪困扰或危机信号。尽管推出“可信联系人”功能被视为一种积极的自我纠正,但行业分析人士普遍认为,在彻底消除产品带来的心理风险方面,OpenAI仍处于“被动防御”的阶段,未来的路还很长。
核心亮点概览:
-
🆘 危机预警机制:允许用户预设“可信联系人”,当AI侦测到用户可能处于心理健康危机边缘时,能够及时向其家人或朋友发送通知,争取宝贵的干预时间。
-
⚖️ 回应法律压力:此举亦是OpenAI面对多起关于用户心理损害及因疏忽导致死亡诉讼压力下的重要回应,表明其正积极寻求改进产品安全措施。
-
🩺 专家联动治理:新功能在由医学专家和福祉委员会组成的网络指导下运行,力求在用户最需要的时候,优化AI的响应策略,提供更人性化、更负责任的服务。