OpenAI推「可信联系人」功能:ChatGPT从聊天工具走向安全守门人

OpenAI于5月7日宣布为ChatGPT引入「可信联系人」安全功能,当系统检测到用户对话中出现自我伤害倾向的内容时,会主动引导用户将风险信息推送给预设的紧急联系人。这一功能标志着大语言模型平台的安全责任从被动的内容过滤升级为主动的现实世界干预,将AI安全防护的边界从屏幕内延伸到了用户的社会关系链中。此举既是OpenAI对用户安全投入的又一重大升级,也是AI行业在监管压力与公众期待双重推动下从被动响应向主动防护转型的标志性事件。

5月7日,OpenAI正式宣布为ChatGPT引入一项名为「可信联系人」(Trusted Contact)的安全功能,将该平台在AI心理健康防护领域的最新举措推向了一个新的高度。根据官方描述,当ChatGPT的对话系统检测到用户对话中出现可能涉及自我伤害或严重心理危机的内容时,系统不再仅停留在弹出心理援助热线提示的层面,而是会引导用户将风险信息分享给其预先设定的紧急联系人。这一功能并非孤立产品更新——它建立在OpenAI此前逐步构建的多层安全框架之上,包括自2023年起逐步上线的危机干预提示系统、与专业心理健康组织建立的合作关系,以及更早之前对自杀内容讨论的限制策略。从时间线来看,OpenAI在安全功能上的迭代呈现出明显的加速趋势,每一次升级都在扩大平台对用户潜在风险的干预深度和广度。"可信联系人"功能的推出,意味着这种干预从纯粹的数字空间延伸到了用户的现实社交网络之中。" 从技术和产品设计的角度来看,这一功能的意义远超单一安全功能的发布。首先需要理解的是,大语言模型的自我伤害检测并非简单的关键词匹配或分类器判断。ChatGPT背后的是复杂的意图识别系统,它需要理解用户对话中的上下文、情绪状态、表达方式中隐含的危机信号。这种检测本质上是在做自然语言理解和心理状态评估的交叉工作——模型不仅要识别出用户是否表达了自杀或自伤的意图,还需要评估这种意图的紧迫性和真实性,以避免误报导致不必要的恐慌,同时又要确保对真正处于危机中的用户做出足够敏感的回应。 "可信联系人"功能的另一个技术挑战在于用户交互设计:系统需要在恰当的时机、以恰当的方式引导用户完成联系人的添加和确认流程,既不能过于突兀地打断正常的对话体验,又要在用户心理防线较低的时候能够有效触达。这种微妙的平衡需要精心设计的产品逻辑和对用户心理状态的深刻理解。从商业模式的角度审视,OpenAI的这一系列安全投入正在重新定义大语言模型平台的竞争维度。过去,AI助手之间的竞争主要围绕模型能力、响应速度、功能丰富度展开;而今天,安全与信任正在成为一个新的差异化维度。在行业监管日趋严格的背景下,欧盟《人工智能法案》(AI Act)对高风险AI系统提出了明确的透明度、可解释性和风险评估要求,美国多个州也在推进关于AI心理健康影响的立法讨论。OpenAI通过主动构建多层次的安全防护体系,实际上是在为即将到来的监管时代做前置布局——当合规成为准入门槛时,那些已经建立完善安全机制的平台将获得显著的先发优势。值得注意的是,这一功能的推出也反映了OpenAI对用户责任边界的重新思考。传统的互联网平台通常将自身定位为信息和服务的提供者,对用户行为造成的后果承担有限的责任。然而,当AI系统具备了理解用户情感状态并识别潜在危机的能力时,平台是否还应该仅仅满足于"中立技术提供商"的角色? OpenAI通过"可信联系人"功能给出了一种回答:当技术上可行、伦理上必要、社会上有期待时,AI平台应当主动承担更多保护用户的责任。这种从"能力中性"到"责任内嵌"的范式转变,是理解当前AI行业安全治理演进的关键线索。从行业竞争格局来看,OpenAI在AI安全功能上的持续加码正在拉开与其他竞争对手的差距。谷歌在AI安全方面也有大量投入,其Gemini模型的"安全护栏"(safety guardrails)机制更为细致和模块化,但在主动干预用户现实安全的方面,目前尚未看到类似"可信联系人"的功能。Anthropic则以"宪法AI"(Constitutional AI)方法论著称,其安全设计更侧重于训练过程中的价值观对齐,而非产品层面的用户干预。其他新兴AI公司如Perplexity、Claude的竞争对手们则在安全防护的系统性建设上仍处于追赶阶段。这种差距不仅体现在功能丰富度上,更体现在安全基础设施的投入深度和用户信任的积累程度上。对于行业用户群体而言,OpenAI的举措会产生直接而深远的影响。心理健康领域的专业人士已经在探讨AI助手在心理危机干预中的角色定位——AI应该被设计成替代专业帮助的工具,还是作为通往专业服务的桥梁? "可信联系人"功能实际上选择了第三条路径:它既不是完全替代专业的心理危机干预,也不仅仅是将用户推向专业机构,而是在用户的社会支持网络中引入了一层额外的安全网。这种设计承认了一个事实:在心理危机干预中,来自亲友的社会支持往往比陌生人热线更加及时和有效。然而,这也带来了新的伦理和法律问题——如果用户的联系人收到风险信息后未能提供有效帮助,平台是否承担连带责任?如果系统误报了真实用户导致隐私泄露,责任如何界定?这些问题目前都没有现成的法律框架可以参照。展望未来,有几个信号值得重点关注。首先是监管层面,欧盟和美国的立法者已经开始关注AI平台在用户安全保护方面的责任范围,"可信联系人"这类主动干预功能可能会成为未来合规要求的基准线。其次是技术层面,随着多模态大模型的发展,AI对情绪状态的判断能力将不再局限于文本分析,语音、表情、行为模式等多维数据的融合将使危机识别更加精准,同时也引发更深刻的隐私争议。第三是商业层面,当安全能力成为用户选择AI产品的关键因素时,安全投入可能从成本中心转变为竞争优势,推动整个行业形成"安全军备竞赛"的新格局。最后,OpenAI自身也在探索将安全功能扩展到其他场景——从自我伤害到仇恨内容、从心理健康到网络诈骗,AI安全护栏的覆盖范围正在持续扩大。这种扩展的边界在哪里,由谁来设定,将决定AI技术在社会中扮演的角色是中立工具还是负责任的参与者。