
美国近期发生一起青少年自杀事件,引发各界忧虑。16岁少年Adam Raine在长时间与ChatGPT互动后选择轻生,其家属控告OpenAI,认为模型未能及时辨识危险讯号,反而在对话中提供了与自杀相关的资讯。对此,OpenAI于9月3日宣布,将在年底前针对青少年及有心理危机的用户,推出一系列安全防护措施,并导入家长监护功能,希望能避免悲剧再次发生。
家属指控,在2024年到2025年间,ChatGPT与他们的儿子建立了亲密关系。在2025年4月11日的最后一次对话中,ChatGPT协助他偷取父母的伏特加酒,并帮他系上的绳结进行技术分析,确认“可能可以吊起一个人”。数小时后,Adam便以此方式自尽。
面对争议,OpenAI于9月3日宣布,将在年底前针对青少年及心理危机用户推出一系列安全防护措施,并新增家长监控功能,期望降低类似悲剧再次发生的风险。这是ChatGPT首次主动向成年人回报青少年使用者的对话内容或危机资讯。
根据官方声明,家长监控功能预计于“下个月内”上线,父母可透过电子邮件邀请方式连结子女帐户,并设定符合年龄的回应规则,亦能管理记忆与对话记录等,一旦系统侦测到青少年处于“剧烈苦恼时刻”,将立即通知家长。
此外,OpenAI表示将加强模型辨别自残、自杀等危险行为征兆的能力,并在必要时引导用户至现实世界寻求专业协助;复杂案例则将交由更高阶推理模型处理,以提升安全与准确性。