오픈AI가 챗GPT 이용자 중 상당수가 자살을 포함한 심각한 정신건강 문제를 AI와 상담한다는 충격적인 데이터를 공개했다. 오픈AI는 27일(현지 시각) 주간 활성 이용자의 0.15%가 “명백한 자살 계획이나 의도를 포함한 대화”를 나눈다고 밝혔다. 챗GPT의 주간 활성 이용자가 8억 명 이상인 점을 고려하면, 매주 100만 명 이상이 자살 관련 대화를 AI와 나누는 셈이다. 비슷한 비율의 이용자들이 챗GPT에 높은 정서적 애착을 보이며, 수십만 명이 정신병이나 조증 징후를 나타냈다.
오픈AI는 이번 데이터 공개와 함께 170명 이상의 정신건강 전문가와 협력해 챗GPT의 응답 방식을 개선했다고 강조했다. 회사는 최신 GPT-5 모델이 정신건강 문제에 대해 바람직한 응답을 이전 버전보다 65% 더 많이 제공하며, 자살 관련 대화에서 회사가 원하는 행동에 91% 부합한다고 설명했다.
이번 발표는 오픈AI에 정신건강 문제가 심각한 경영 과제로 떠오른 시점에 나왔다. 회사는 현재 자살하기 몇 주 전 챗GPT에 자살 충동을 고백했던 16세 소년의 부모로부터 소송을 당하고 있다. 캘리포니아와 델라웨어주 법무장관들도 청소년 보호를 위한 조치를 요구하고 있다.
오픈AI는 챗GPT를 사용하는 아동을 자동 감지하는 연령 예측 시스템을 구축하고, AI 모델 안전 테스트에 정서적 의존과 정신건강 응급 상황 기준을 추가하는 등 대응책을 마련하고 있다.
해당 기사에 인용된 데이터는 오픈AI 웹사이트에서 확인 가능하다.
이미지 출처: 오픈AI





![[Q&AI] “AI로 조작했다”… 이이경 사생활 폭로 사건 정리](https://aimatters.co.kr/wp-content/uploads/2025/10/AI-매터스-기사-썸네일-QAI-6.jpg)
