OpenAI推出“信任联系人”安全保护功能,防范自残风险
周四,OpenAI宣布推出一项名为“信任联系人”的新功能,旨在当对话中提及自残时,通知信任的第三方。该功能允许成年ChatGPT用户在其账户中指定另一人(如朋友或家人)为信任联系人。若对话可能转向自残,OpenAI将鼓励用户联系该联系人,同时向联系人发送自动提醒,促其与用户联系。
OpenAI此前面临多起诉讼,来自与ChatGPT对话后自杀者的家属。在部分案件中,家属称ChatGPT鼓励其亲人自杀,甚至帮助他们策划自杀。

目前,OpenAI结合自动化与人工审查处理潜在有害事件。特定对话触发器(如自杀念头)会提醒公司系统,随后将信息转至人工安全团队。公司称,每次收到此类通知,都会由人工审查。“我们力争在1小时内审查这些安全通知,”公司表示。
若OpenAI内部团队认定情况构成严重安全风险,ChatGPT将向信任联系人发送提醒——通过邮件、短信或应用内通知。提醒设计简短,旨在鼓励联系人与当事人联系,不包含详细讨论内容,以保护用户隐私,公司解释。
“信任联系人”功能继去年9月推出的安全保护措施之后推出,后者赋予家长监督青少年账户的权力,包括接收安全通知(若OpenAI系统认为孩子面临“严重安全风险”)。长期以来,ChatGPT也包含自动提醒,当对话涉及自残话题时,引导用户寻求专业健康服务。
关键的是,“信任联系人”为可选功能,即使特定账户激活该保护,用户仍可拥有多个ChatGPT账户。OpenAI的家长控制功能同样可选,存在类似限制。
“‘信任联系人’是OpenAI构建帮助人们度过困难时刻的AI系统更广泛努力的一部分,”公司在公告中写道。“我们将继续与临床医生、研究人员和政策制定者合作,改进AI系统在人们可能经历痛苦时的响应方式。”
关注微信号:智享开源 ,可及时获取信息
评论列表
发表评论
为你推荐
关注微信

近期评论
- 发表在《今天我终于找到了加快网站速度的办法》
- 发表在《如何成为超级个体?》
- 发表在《像ChatGPT一样记笔记》
- 发表在《python 如何将电子表格按照某一列相同数据分到一个一个工作表中》
- 发表在《python 如何将电子表格按照某一列相同数据分到一个一个工作表中》

还没有任何评论,你来说两句吧!