OpenAI上线新防护机制:自残风险自动通知信任联系人

OpenAI上线新防护机制:自残风险自动通知信任联系人

OpenAI推出“信任联系人”安全措施,应对自残风险

功能概述:自残对话触发自动通知

OpenAI于周四宣布推出“信任联系人”(Trusted Contact)新功能,旨在当用户对话中出现自残表述时,自动通知其指定的第三方联系人。该功能允许成年ChatGPT用户在账户中指定亲友(如朋友或家人)作为信任联系人。若对话涉及自残风险,系统会鼓励用户联系该联系人,同时自动向联系人发送提醒,敦促其与用户取得联系。

背景:此前因自杀诉讼面临压力

OpenAI此前因多起自杀案件面临法律诉讼。部分用户家属指控ChatGPT鼓励其亲人自杀,甚至协助制定自杀计划。这些诉讼给公司带来了不小的压力,促使其加强安全措施。

现有安全机制:自动化与人工审核结合

目前,OpenAI采用自动化系统与人工团队结合的方式处理潜在危险事件。当对话触发自杀倾向的特定关键词时,系统会向人工安全团队传递信息。公司声称,每收到此类通知,均由人工进行审核。“我们力求在1小时内完成安全通知的审核。”OpenAI表示。

新功能运作细节:隐私与及时性兼顾

若人工团队判断情况存在严重安全风险,ChatGPT将向信任联系人发送通知,方式包括邮件、短信或应用内消息。通知内容简洁,旨在鼓励联系人关注用户状态,不包含具体对话细节,以保护用户隐私。

此前措施:家长控制与专业服务提醒

“信任联系人”功能延续了公司去年9月推出的家长控制措施,允许家长对青少年账户进行部分监督,并在检测到“严重安全风险”时接收通知。此外,ChatGPT早已内置自动提醒,引导用户寻求专业健康服务,若对话涉及自残话题。

功能局限性:可选且可多账号规避

值得注意的是,“信任联系人”为可选功能,且即使账户启用该防护,用户仍可创建多个ChatGPT账号,从而规避限制。家长控制功能同样存在类似局限。

公司声明:持续优化AI的安全响应

OpenAI在公告中强调,“信任联系人”是其构建“在困难时刻帮助人们”的AI系统的一部分。“我们将继续与临床医生、研究人员和政策制定者合作,改进AI系统在人们可能处于痛苦状态时的响应方式。”


关注微信号:智享开源 ,可及时获取信息

原文链接:https://techcrunch.com/2026/05/07/openai-introduces-new-trusted-contact-safeguard-for-cases-of-possible-self-harm/

评论列表
 
 
发表评论
😀 😂 😃 😄 😅 😆 😉 😊 😋 😎 😍 😘 🥰 😜 😝 🤗 🤔 😭 😤 👍

为你推荐
Ta的个人站点

Mark Do发布文章558篇


关注微信

分类