OpenAI上线新防护机制:自残风险自动通知信任联系人

OpenAI推出“信任联系人”安全措施,应对自残风险
功能概述:自残对话触发自动通知
OpenAI于周四宣布推出“信任联系人”(Trusted Contact)新功能,旨在当用户对话中出现自残表述时,自动通知其指定的第三方联系人。该功能允许成年ChatGPT用户在账户中指定亲友(如朋友或家人)作为信任联系人。若对话涉及自残风险,系统会鼓励用户联系该联系人,同时自动向联系人发送提醒,敦促其与用户取得联系。
背景:此前因自杀诉讼面临压力
OpenAI此前因多起自杀案件面临法律诉讼。部分用户家属指控ChatGPT鼓励其亲人自杀,甚至协助制定自杀计划。这些诉讼给公司带来了不小的压力,促使其加强安全措施。
现有安全机制:自动化与人工审核结合
目前,OpenAI采用自动化系统与人工团队结合的方式处理潜在危险事件。当对话触发自杀倾向的特定关键词时,系统会向人工安全团队传递信息。公司声称,每收到此类通知,均由人工进行审核。“我们力求在1小时内完成安全通知的审核。”OpenAI表示。
新功能运作细节:隐私与及时性兼顾
若人工团队判断情况存在严重安全风险,ChatGPT将向信任联系人发送通知,方式包括邮件、短信或应用内消息。通知内容简洁,旨在鼓励联系人关注用户状态,不包含具体对话细节,以保护用户隐私。
此前措施:家长控制与专业服务提醒
“信任联系人”功能延续了公司去年9月推出的家长控制措施,允许家长对青少年账户进行部分监督,并在检测到“严重安全风险”时接收通知。此外,ChatGPT早已内置自动提醒,引导用户寻求专业健康服务,若对话涉及自残话题。
功能局限性:可选且可多账号规避
值得注意的是,“信任联系人”为可选功能,且即使账户启用该防护,用户仍可创建多个ChatGPT账号,从而规避限制。家长控制功能同样存在类似局限。
公司声明:持续优化AI的安全响应
OpenAI在公告中强调,“信任联系人”是其构建“在困难时刻帮助人们”的AI系统的一部分。“我们将继续与临床医生、研究人员和政策制定者合作,改进AI系统在人们可能处于痛苦状态时的响应方式。”
关注微信号:智享开源 ,可及时获取信息
评论列表
发表评论
为你推荐
关注微信

近期评论
- 发表在《今天我终于找到了加快网站速度的办法》
- 发表在《如何成为超级个体?》
- 发表在《像ChatGPT一样记笔记》
- 发表在《python 如何将电子表格按照某一列相同数据分到一个一个工作表中》
- 发表在《python 如何将电子表格按照某一列相同数据分到一个一个工作表中》

还没有任何评论,你来说两句吧!