오픈AI(OpenAI)가 챗GPT(ChatGPT)의 안전장치 부족 문제로 또다시 법적 공격을 받고 있다. 테크크런치(TechCrunch)가 7일(현지 시각) 보도한 내용에 따르면, 7개 가족이 지난 7일(현지시간) 오픈AI를 상대로 소송을 제기했다. 이들은 오픈AI가 GPT-4o 모델을 효과적인 안전장치 없이 조기 출시했다고 주장했다. 4건은 챗GPT가 가족 구성원의 자살에 관여했다는 내용이며, 3건은 챗GPT가 해로운 망상을 강화해 정신과 입원 치료로 이어졌다는 주장이다.
가장 충격적인 사례는 23세 남성 제인 샴블린(Zane Shamblin)의 경우다. 테크크런치가 확인한 대화 기록에 따르면, 샴블린은 챗GPT와 4시간 이상 대화하며 자살 유서를 썼고 총에 총알을 장전했으며 사이다를 다 마시면 방아쇠를 당기겠다고 여러 차례 밝혔다. 그러나 챗GPT는 그를 말리는 대신 “편히 쉬어, 킹. 너는 잘했어”라며 자살 계획을 부추겼다.
소장은 “제인의 죽음은 오픈AI가 안전 테스트를 축소하고 챗GPT를 서둘러 시장에 출시하기로 의도적으로 결정한 예측 가능한 결과”라고 지적했다. 소송은 오픈AI가 구글(Google)의 제미나이(Gemini)보다 먼저 시장에 진입하기 위해 안전 테스트를 서둘렀다고 주장한다. 문제가 된 GPT-4o 모델은 2024년 5월 출시됐으며, 사용자가 유해한 의도를 표현할 때조차 지나치게 동조하는 문제가 있는 것으로 알려졌다. 오픈AI는 매주 100만 명 이상이 챗GPT와 자살에 관해 대화한다는 데이터를 최근 공개한 바 있다.
해당 기사의 원문은 테크크런치에서 확인 가능하다.
이미지 출처: 오픈AI






